論文の概要: Advancing Decoding Strategies: Enhancements in Locally Typical Sampling for LLMs
- arxiv url: http://arxiv.org/abs/2506.05387v2
- Date: Wed, 11 Jun 2025 16:08:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-12 23:41:16.711399
- Title: Advancing Decoding Strategies: Enhancements in Locally Typical Sampling for LLMs
- Title(参考訳): 復号化戦略の強化:LLMの局所サンプリングの強化
- Authors: Jaydip Sen, Saptarshi Sengupta, Subhasis Dasgupta,
- Abstract要約: Adaptive Semantic-Aware typicality Smpling (ASTS) は局所典型サンプリング (LTS) アルゴリズムの改良版として提案されている。
ASTSは、計算効率を維持しながら、文脈的に一貫性があり多様なテキスト生成を保証する。
実験の結果,ASTSは反復を減らし,セマンティックアライメントを強化し,流速を向上させることにより,既存のサンプリング技術よりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 0.9217021281095907
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This chapter explores advancements in decoding strategies for large language models (LLMs), focusing on enhancing the Locally Typical Sampling (LTS) algorithm. Traditional decoding methods, such as top-k and nucleus sampling, often struggle to balance fluency, diversity, and coherence in text generation. To address these challenges, Adaptive Semantic-Aware Typicality Sampling (ASTS) is proposed as an improved version of LTS, incorporating dynamic entropy thresholding, multi-objective scoring, and reward-penalty adjustments. ASTS ensures contextually coherent and diverse text generation while maintaining computational efficiency. Its performance is evaluated across multiple benchmarks, including story generation and abstractive summarization, using metrics such as perplexity, MAUVE, and diversity scores. Experimental results demonstrate that ASTS outperforms existing sampling techniques by reducing repetition, enhancing semantic alignment, and improving fluency.
- Abstract(参考訳): 本章では,大規模言語モデル(LLM)の復号化戦略の進歩について,局所的典型サンプリング(LTS)アルゴリズムの強化に焦点をあてる。
トップkや核サンプリングのような伝統的な復号法は、しばしばテキスト生成において流布率、多様性、一貫性のバランスをとるのに苦労する。
これらの課題に対処するために、動的エントロピーしきい値付け、多目的スコアリング、報酬金の調整を取り入れた、適応セマンティック・アウェア典型サンプリング(ASTS)がLTSの改良版として提案されている。
ASTSは、計算効率を維持しながら、文脈的に一貫性があり多様なテキスト生成を保証する。
その性能は、ストーリー生成や抽象的な要約を含む複数のベンチマークで評価され、パープレキシティ、MAUVE、多様性スコアなどの指標を用いて評価される。
実験の結果,ASTSは反復を減らし,セマンティックアライメントを強化し,流速を向上させることにより,既存のサンプリング技術よりも優れた性能を示した。
関連論文リスト
- Context-Enhanced Contrastive Search for Improved LLM Text Generation [1.7720658326850143]
本稿では,コントラスト探索アルゴリズムであるCECS(Context-Enhanced Contrastive Search)のコンテキストキャリブレーションによる改良を提案する。
提案手法は, 動的文脈重み付け, 多レベルコントラスト探索, 適応温度制御などの新しい手法を導入し, 流速, 創造性, 精度のバランスを最適化する。
実験の結果,CECSによるテキストの一貫性と関連性は,既存のContrastive Search技術よりも優れていた。
論文 参考訳(メタデータ) (2025-04-22T13:00:14Z) - Diversified Sampling Improves Scaling LLM inference [31.18762591875725]
DivSamplingは、候補解の多様性を高めるために設計された、斬新で多用途なサンプリング技術である。
理論解析により, 微妙な仮定の下では, 種々のプロンプトから発生する応答の誤り率は, 定常プロンプトによる応答よりも有意に低いことが示された。
論文 参考訳(メタデータ) (2025-02-16T07:37:58Z) - Words Matter: Leveraging Individual Text Embeddings for Code Generation in CLIP Test-Time Adaptation [21.20806568508201]
テスト時推論において視覚言語モデル(VLM)が遭遇する分布ドリフトを軽減するために,クラステキスト情報を活用する方法を示す。
本稿では,ラベル割り当て問題の固定セントロイドとしてジェネリッククラステキスト埋め込みを利用して,テスト時間サンプルの擬似ラベルを生成することを提案する。
多様な複雑性を示す複数の人気のあるテスト時間適応ベンチマークの実験は、CLIP-OTの優位性を実証的に示している。
論文 参考訳(メタデータ) (2024-11-26T00:15:37Z) - Balancing Diversity and Risk in LLM Sampling: How to Select Your Method and Parameter for Open-Ended Text Generation [60.493180081319785]
本稿では,各復号ステップにおける多様性とリスクのトレードオフを考慮し,トラクションサンプリング手法のキャパシティを推定する体系的手法を提案する。
本研究は,既存のトラクションサンプリング手法を総合的に比較し,パラメータ選択のための実用的なユーザガイドとして機能する。
論文 参考訳(メタデータ) (2024-08-24T14:14:32Z) - Language Model Decoding as Direct Metrics Optimization [87.68281625776282]
現在の復号法は、異なる側面にわたる人間のテキストと整合するテキストを生成するのに苦労している。
本研究では,言語モデルからの復号化を最適化問題として,期待される性能と人間のテキストとの厳密なマッチングを目的とした。
この誘導分布は,人間のテキストの難易度を向上させることが保証されていることを証明し,人間のテキストの基本的な分布に対するより良い近似を示唆する。
論文 参考訳(メタデータ) (2023-10-02T09:35:27Z) - MacLaSa: Multi-Aspect Controllable Text Generation via Efficient
Sampling from Compact Latent Space [110.85888003111653]
マルチアスペクト制御可能なテキスト生成は、複数の望ましい属性を同時に持つ流動文を生成することを目的としている。
マルチアスペクト制御のための新しいアプローチ、すなわちMacLaSaを導入し、複数の側面に対してコンパクトな潜在空間を推定する。
また,MacLaSaは,高い推論速度を維持しつつ,属性関連性やテキスト品質を高いベースラインで向上させることを示す。
論文 参考訳(メタデータ) (2023-05-22T07:30:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。