論文の概要: Verbalized Sampling: How to Mitigate Mode Collapse and Unlock LLM Diversity
- arxiv url: http://arxiv.org/abs/2510.01171v1
- Date: Wed, 01 Oct 2025 17:55:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.707873
- Title: Verbalized Sampling: How to Mitigate Mode Collapse and Unlock LLM Diversity
- Title(参考訳): Verbalized Smpling: モードの崩壊を緩和し、LLMの多様性をアンロックする方法
- Authors: Jiayi Zhang, Simon Yu, Derek Chong, Anthony Sicilia, Michael R. Tomz, Christopher D. Manning, Weiyan Shi,
- Abstract要約: 我々は、基本的で普及したデータレベルドライバを識別する: 嗜好データにおける典型的バイアス。
我々は、このバイアスを理論的に定式化し、嗜好データセット上で実証し、モード崩壊において中心的な役割を果たすことを示す。
この分析により,モード崩壊を回避するためのトレーニングフリープロンプト戦略であるVerbalized Smplingを導入する。
- 参考スコア(独自算出の注目度): 47.31915660949334
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Post-training alignment often reduces LLM diversity, leading to a phenomenon known as mode collapse. Unlike prior work that attributes this effect to algorithmic limitations, we identify a fundamental, pervasive data-level driver: typicality bias in preference data, whereby annotators systematically favor familiar text as a result of well-established findings in cognitive psychology. We formalize this bias theoretically, verify it on preference datasets empirically, and show that it plays a central role in mode collapse. Motivated by this analysis, we introduce Verbalized Sampling, a simple, training-free prompting strategy to circumvent mode collapse. VS prompts the model to verbalize a probability distribution over a set of responses (e.g., ``Generate 5 jokes about coffee and their corresponding probabilities''). Comprehensive experiments show that VS significantly improves performance across creative writing (poems, stories, jokes), dialogue simulation, open-ended QA, and synthetic data generation, without sacrificing factual accuracy and safety. For instance, in creative writing, VS increases diversity by 1.6-2.1x over direct prompting. We further observe an emergent trend that more capable models benefit more from VS. In sum, our work provides a new data-centric perspective on mode collapse and a practical inference-time remedy that helps unlock pre-trained generative diversity.
- Abstract(参考訳): トレーニング後のアライメントはしばしばLDMの多様性を低下させ、モード崩壊と呼ばれる現象を引き起こす。
この効果をアルゴリズムの制約に当てはめる以前の研究とは異なり、我々は基本的なデータレベルドライバを識別する: 嗜好データにおける典型的偏見(prefered data)、すなわち、アノテータは認知心理学においてよく確立された発見の結果、体系的に親しみやすいテキストを好む。
我々は、このバイアスを理論的に定式化し、嗜好データセット上で実証し、モード崩壊において中心的な役割を果たすことを示す。
この分析で動機付けられたVerbalized Smplingは、モード崩壊を回避するためのシンプルでトレーニング不要なプロンプト戦略である。
VSは、一連の応答(例: ``Generate 5 jokes about coffee and their corresponding probabilities'')に対する確率分布の言語化をモデルに促す。
総合的な実験によると、VSは、事実の正確さと安全性を犠牲にすることなく、創造的な執筆(詩、物語、ジョーク)、対話シミュレーション、オープンエンドQA、合成データ生成におけるパフォーマンスを著しく改善する。
例えば、クリエイティブな書き込みでは、VSは直接プロンプトよりも1.6-2.1倍の多様性を増す。
我々はさらに、より有能なモデルがVSからより恩恵を受けるという創発的な傾向を観察する。総じて、我々の研究は、モード崩壊に関する新しいデータ中心の視点と、事前訓練された生成多様性の解放に役立つ実用的な推論時救済を提供する。
関連論文リスト
- Towards Minimal Causal Representations for Human Multimodal Language Understanding [20.44307628909198]
従来の可能性よりも因果原理を活用する因果多様情報ボトルネック(CaMIB)モデルを導入する。
因果的特徴のグローバルな整合性を確保するため,器用変数制約を組み込む。
マルチモーダル感情分析、ユーモア検出、およびサルカズム検出の実験は、OODテストセットとともに、CaMIBの有効性を実証した。
論文 参考訳(メタデータ) (2025-09-26T03:04:23Z) - A Unified Virtual Mixture-of-Experts Framework:Enhanced Inference and Hallucination Mitigation in Single-Model System [9.764336669208394]
GPTやBERTのような生成モデルは、テキスト生成や要約といったタスクのパフォーマンスを大幅に改善した。
しかし、「モデルが非現実的または誤解を招くコンテンツを生成する場所」という幻覚は、特に小規模アーキテクチャでは問題となる。
本稿では,単一のQwen 1.5 0.5Bモデルにおいて,推論性能を高め,幻覚を緩和する仮想ミックス・オブ・エクササイズ(MoE)融合戦略を提案する。
論文 参考訳(メタデータ) (2025-04-01T11:38:01Z) - Chain of Thought Still Thinks Fast: APriCoT Helps with Thinking Slow [0.0]
我々は、Agnostically Primed CoT (APriCoT)による対物プロンプトを導入する。
APriCoTは、全体的な精度を改善しつつ、ベースレート確率の影響を効果的に低減する。
以上の結果から,CoTだけでは提供できないような緩やかな思考プロセスが必要であることが示唆された。
論文 参考訳(メタデータ) (2024-08-16T10:34:50Z) - Debiasing Multimodal Large Language Models via Penalization of Language Priors [38.97645845493758]
MLLM(Multimodal Large Language Models)は、コンピュータビジョンや自然言語処理において欠かせないツールとなっている。
生成されたコンテンツは、入力画像よりも、基礎となるLarge Language Models (LLMs) の本質的な先行性によって駆動されることが多い。
本稿では、これらのバイアスを補正し、視覚情報に対するモデルの焦点をリダイレクトするための、単純でトレーニングのない2つの戦略を提案する。
論文 参考訳(メタデータ) (2024-03-08T12:35:07Z) - Fairness-guided Few-shot Prompting for Large Language Models [93.05624064699965]
インコンテキスト学習は、トレーニング例、例えば順、プロンプトフォーマットのバリエーションによって、高い不安定性に悩まされる可能性がある。
ラベルや属性に対する固定的なプロンプトの予測バイアスを評価するための指標を導入する。
そこで本研究では,テキスト内学習の性能向上のための最寄りのプロンプトを特定するための,欲求探索に基づく新しい探索手法を提案する。
論文 参考訳(メタデータ) (2023-03-23T12:28:25Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。