論文の概要: Reranking Laws for Language Generation: A Communication-Theoretic Perspective
- arxiv url: http://arxiv.org/abs/2409.07131v1
- Date: Wed, 11 Sep 2024 09:27:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-12 15:02:58.627669
- Title: Reranking Laws for Language Generation: A Communication-Theoretic Perspective
- Title(参考訳): 言語生成に関する法則の再検討:コミュニケーション理論の視点から
- Authors: António Farinhas, Haau-Sing Li, André F. T. Martins,
- Abstract要約: 我々は、並列ノイズチャネルを通じてメッセージの複数の記述を送信する送信機としてジェネレータを概念化する。
リランカが不完全である場合であっても、このプロトコルがエラーのない条件を提供する。
我々は,大規模な言語モデルを用いて,実世界の2つの課題に対して経験的に検証する法則の再定式化のために,我々の枠組みを利用する。
- 参考スコア(独自算出の注目度): 23.375569123152324
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To ensure large language models (LLMs) are used safely, one must reduce their propensity to hallucinate or to generate unacceptable answers. A simple and often used strategy is to first let the LLM generate multiple hypotheses and then employ a reranker to choose the best one. In this paper, we draw a parallel between this strategy and the use of redundancy to decrease the error rate in noisy communication channels. We conceptualize the generator as a sender transmitting multiple descriptions of a message through parallel noisy channels. The receiver decodes the message by ranking the (potentially corrupted) descriptions and selecting the one found to be most reliable. We provide conditions under which this protocol is asymptotically error-free (i.e., yields an acceptable answer almost surely) even in scenarios where the reranker is imperfect (governed by Mallows or Zipf-Mandelbrot models) and the channel distributions are statistically dependent. We use our framework to obtain reranking laws which we validate empirically on two real-world tasks using LLMs: text-to-code generation with DeepSeek-Coder 7B and machine translation of medical data with TowerInstruct 13B.
- Abstract(参考訳): 大きな言語モデル(LLM)を安全に使用するためには、幻覚や受け入れがたい答えを生じさせる確率を減らさなければならない。
単純で頻繁に使われる戦略は、まずLLMが複数の仮説を生成させ、次に最適な仮説を選択するために再帰的手法を採用することである。
本稿では,この戦略と冗長性を利用して雑音の多い通信路における誤り率を減少させる手法について述べる。
我々は、並列ノイズチャネルを通じてメッセージの複数の記述を送信する送信機としてジェネレータを概念化する。
受信機は、(潜在的に破損した)記述をランク付けし、最も信頼できるものを選択することで、メッセージを復号する。
我々は、このプロトコルが漸近的にエラーのない(つまり、リランカーが不完全(マローズモデルやZipf-Mandelbrotモデルに支配されている)であり、チャネル分布が統計的に依存している場合であっても、ほぼ確実に許容できる解が得られる)条件を提供する。
我々は,DeepSeek-Coder 7B によるテキスト・コード生成と TowerInstruct 13B による医療データの機械翻訳という,LLM を用いた実世界の2つのタスクを実証的に検証する法則の更新を行う。
関連論文リスト
- $\mathbb{USCD}$: Improving Code Generation of LLMs by Uncertainty-Aware Selective Contrastive Decoding [64.00025564372095]
大規模言語モデル(LLM)は、コード生成において顕著な能力を示している。
幻覚の影響(例えば出力ノイズ)は、LLMが1パスで高品質なコードを生成するのを難しくする。
単純かつ効果的なtextbfuncertainty-aware textbf select textbfcontrastive textbfdecodingを提案する。
論文 参考訳(メタデータ) (2024-09-09T02:07:41Z) - Automatic Pseudo-Harmful Prompt Generation for Evaluating False Refusals in Large Language Models [41.00711032805581]
安全性に配慮した大型言語モデル(LLM)は、時に「蚊を殺す方法」のような偽の有害なプロンプトを誤って拒否することがある。
ユーザーをイライラさせるだけでなく、アライメントが保護しようとする価値に対する大衆の反発を引き起こしている。
本稿では,多種多様・コンテンツ制御・モデル依存型擬似有害プロンプトの自動生成手法を提案する。
論文 参考訳(メタデータ) (2024-09-01T03:25:59Z) - Developing Safe and Responsible Large Language Model : Can We Balance Bias Reduction and Language Understanding in Large Language Models? [2.089112028396727]
本研究では,大規模言語モデルが知識や理解を犠牲にすることなく,安全でバイアスのないアウトプットを生成できるかどうかを考察する。
セーフかつレスポンシブルな大規模言語モデル (textbfSR$_textLLM$) を導入する。
textbfSR$_textLLM$は知識の整合性を維持しながらバイアスを効果的に低減する。
論文 参考訳(メタデータ) (2024-04-01T18:10:05Z) - BOOST: Harnessing Black-Box Control to Boost Commonsense in LMs'
Generation [60.77990074569754]
本稿では,凍結した事前学習言語モデルを,より汎用的な生成に向けて操る,計算効率のよいフレームワークを提案する。
具体的には、まず、文に常識的スコアを割り当てる参照なし評価器を構築する。
次に、スコアラをコモンセンス知識のオラクルとして使用し、NADOと呼ばれる制御可能な生成法を拡張して補助ヘッドを訓練する。
論文 参考訳(メタデータ) (2023-10-25T23:32:12Z) - The Consensus Game: Language Model Generation via Equilibrium Search [73.51411916625032]
言語モデル復号のための学習不要なゲーム理論を新たに導入する。
本手法では,正規化不完全情報シーケンシャルシグナリングゲームとして,言語モデルの復号化を行う。
EQUILIBRium-RANKINGをLLaMA-7Bに適用すると、より大型のLLaMA-65BとPaLM-540Bより優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-10-13T14:27:21Z) - HyPoradise: An Open Baseline for Generative Speech Recognition with
Large Language Models [81.56455625624041]
ASRの誤り訂正に外部の大規模言語モデル(LLM)を利用する最初のオープンソースベンチマークを導入する。
提案したベンチマークには、334,000組以上のN-best仮説を含む新しいデータセットHyPoradise (HP)が含まれている。
合理的なプロンプトと生成能力を持つLLMは、N-bestリストに欠けているトークンを修正できる。
論文 参考訳(メタデータ) (2023-09-27T14:44:10Z) - Contrastive Decoding: Open-ended Text Generation as Optimization [153.35961722855686]
信頼性の高い復号法であるコントラスト復号法(CD)を提案する。
これは、より大きなLMの故障がより小さなLMでさらに多いという事実に着想を得たものである。
CDは追加のトレーニングを一切必要とせず、より大きなLMからの復号化よりも高品質なテキストを生成する。
論文 参考訳(メタデータ) (2022-10-27T00:58:21Z) - Entanglement purification by counting and locating errors with
entangling measurements [62.997667081978825]
量子状態の複数コピーに対するエンタングルメント浄化プロトコルについて検討する。
ノイズアンサンブルにおける誤差の数と位置を高次元補助的絡み合いシステムを用いて学習する。
論文 参考訳(メタデータ) (2020-11-13T19:02:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。