論文の概要: Asking a Language Model for Diverse Responses
- arxiv url: http://arxiv.org/abs/2509.17570v1
- Date: Mon, 22 Sep 2025 11:01:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.32522
- Title: Asking a Language Model for Diverse Responses
- Title(参考訳): 多様な応答に対する言語モデルの提案
- Authors: Sergey Troshin, Irina Saparina, Antske Fokkens, Vlad Niculae,
- Abstract要約: 本研究では,祖先(並列)サンプリングと対照的な可塑性応答の集合を生成する候補サンプリング器について,1パスあたり$n$の候補を生成するようモデルに求める列挙法と,現在生成された応答集合を条件付けしながら順次候補を提案する反復サンプリングについて検討する。
本研究は, 生成品質を犠牲にすることなく, 応答多様性を向上させるための単純な非独立サンプリング戦略の可能性を明らかにするものである。
- 参考スコア(独自算出の注目度): 16.3136507778455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models increasingly rely on explicit reasoning chains and can produce multiple plausible responses for a given context. We study the candidate sampler that produces the set of plausible responses contrasting the ancestral (parallel) sampling against two alternatives: enumeration, which asks the model to produce $n$ candidates in one pass, and iterative sampling, which proposes candidates sequentially while conditioning on the currently generated response set. Under matched budgets, we compare these samplers on quality, lexical and computation flow diversity, and efficiency. Our empirical results demonstrate that enumeration and iterative strategies result in higher diversity at comparable quality. Our findings highlight the potential of simple non-independent sampling strategies to improve response diversity without sacrificing generation quality.
- Abstract(参考訳): 大規模言語モデルは、より明示的な推論チェーンに依存し、与えられたコンテキストに対して複数の妥当な応答を生成することができる。
本研究では,祖先(並列)サンプリングと対照的な可塑性応答の集合を生成する候補サンプリング器について,1パスあたり$n$の候補を生成するようモデルに求める列挙法と,現在生成された応答集合を条件付けしながら順次候補を提案する反復サンプリングについて検討する。
一致した予算の下では、これらのサンプルを品質、語彙および計算フローの多様性、効率について比較する。
我々の経験的結果は、列挙と反復戦略が同等の品質でより高い多様性をもたらすことを示している。
本研究は, 生成品質を犠牲にすることなく, 応答多様性を向上させるための単純な非独立サンプリング戦略の可能性を明らかにするものである。
関連論文リスト
- Learning to Refine: Self-Refinement of Parallel Reasoning in LLMs [102.48588475875749]
本稿では,新しい並列テスト時間スケーリングフレームワークであるGenerative Self-Refinement (GSR)を紹介する。
GSRは一連の候補応答を並列に生成し、その後自己精製を行い、新しい優れた解を合成する。
提案手法は,5つの数学ベンチマークにおいて,最先端性能を実現する。
論文 参考訳(メタデータ) (2025-08-27T06:51:48Z) - Scaling Group Inference for Diverse and High-Quality Generation [43.33751261265585]
サンプル群の多様性と品質を改善するスケーラブルなグループ推論手法を提案する。
本フレームワークは,テキスト・ツー・イメージ,イメージ・ツー・イメージ,画像プロンプト,ビデオ生成など,幅広いタスクを一般化する。
論文 参考訳(メタデータ) (2025-08-21T17:59:57Z) - Diversified Sampling Improves Scaling LLM inference [31.18762591875725]
DivSamplingは、候補解の多様性を高めるために設計された、斬新で多用途なサンプリング技術である。
我々の理論的解析は、軽微な仮定の下では、多様なプロンプトから発生する応答の誤り率が著しく低いことを証明している。
論文 参考訳(メタデータ) (2025-02-16T07:37:58Z) - Balancing Diversity and Risk in LLM Sampling: How to Select Your Method and Parameter for Open-Ended Text Generation [60.493180081319785]
本稿では,各復号ステップにおける多様性とリスクのトレードオフを考慮し,トラクションサンプリング手法のキャパシティを推定する体系的手法を提案する。
本研究は,既存のトラクションサンプリング手法を総合的に比較し,パラメータ選択のための実用的なユーザガイドとして機能する。
論文 参考訳(メタデータ) (2024-08-24T14:14:32Z) - Turning Up the Heat: Min-p Sampling for Creative and Coherent LLM Outputs [3.631341123338476]
大規模言語モデル(LLM)は、各復号ステップにおける語彙上の確率分布から次のトークンをサンプリングしてテキストを生成する。
本稿では,トップトークンの確率をスケーリング係数として利用して,モデルの信頼度に基づいてサンプリングしきい値を調整する動的トランケーション手法であるmin-pサンプリングを提案する。
論文 参考訳(メタデータ) (2024-07-01T08:37:25Z) - SimOAP: Improve Coherence and Consistency in Persona-based Dialogue
Generation via Over-sampling and Post-evaluation [54.66399120084227]
大規模コーパスで訓練された言語モデルは、オープンドメイン対話において驚くほど流動的な結果を生み出すことができる。
ペルソナに基づく対話生成タスクでは、一貫性と一貫性が言語モデルにとって大きな課題である。
オーバーサンプリングとポスト評価という2段階のSimOAP戦略が提案されている。
論文 参考訳(メタデータ) (2023-05-18T17:23:00Z) - Reparameterized Sampling for Generative Adversarial Networks [71.30132908130581]
本稿では,マルコフ連鎖をジェネレータの潜在空間に再配置することで,一般依存型提案を可能にする新しいサンプリング手法REP-GANを提案する。
実験的な実験により、我々のREP-GANはサンプル効率を大幅に改善し、同時により良いサンプル品質を得ることを示した。
論文 参考訳(メタデータ) (2021-07-01T10:34:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。