論文の概要: Reranking Laws for Language Generation: A Communication-Theoretic Perspective
- arxiv url: http://arxiv.org/abs/2409.07131v1
- Date: Wed, 11 Sep 2024 09:27:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-12 15:02:58.627669
- Title: Reranking Laws for Language Generation: A Communication-Theoretic Perspective
- Title(参考訳): 言語生成に関する法則の再検討:コミュニケーション理論の視点から
- Authors: António Farinhas, Haau-Sing Li, André F. T. Martins,
- Abstract要約: 我々は、並列ノイズチャネルを通じてメッセージの複数の記述を送信する送信機としてジェネレータを概念化する。
リランカが不完全である場合であっても、このプロトコルがエラーのない条件を提供する。
我々は,大規模な言語モデルを用いて,実世界の2つの課題に対して経験的に検証する法則の再定式化のために,我々の枠組みを利用する。
- 参考スコア(独自算出の注目度): 23.375569123152324
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To ensure large language models (LLMs) are used safely, one must reduce their propensity to hallucinate or to generate unacceptable answers. A simple and often used strategy is to first let the LLM generate multiple hypotheses and then employ a reranker to choose the best one. In this paper, we draw a parallel between this strategy and the use of redundancy to decrease the error rate in noisy communication channels. We conceptualize the generator as a sender transmitting multiple descriptions of a message through parallel noisy channels. The receiver decodes the message by ranking the (potentially corrupted) descriptions and selecting the one found to be most reliable. We provide conditions under which this protocol is asymptotically error-free (i.e., yields an acceptable answer almost surely) even in scenarios where the reranker is imperfect (governed by Mallows or Zipf-Mandelbrot models) and the channel distributions are statistically dependent. We use our framework to obtain reranking laws which we validate empirically on two real-world tasks using LLMs: text-to-code generation with DeepSeek-Coder 7B and machine translation of medical data with TowerInstruct 13B.
- Abstract(参考訳): 大きな言語モデル(LLM)を安全に使用するためには、幻覚や受け入れがたい答えを生じさせる確率を減らさなければならない。
単純で頻繁に使われる戦略は、まずLLMが複数の仮説を生成させ、次に最適な仮説を選択するために再帰的手法を採用することである。
本稿では,この戦略と冗長性を利用して雑音の多い通信路における誤り率を減少させる手法について述べる。
我々は、並列ノイズチャネルを通じてメッセージの複数の記述を送信する送信機としてジェネレータを概念化する。
受信機は、(潜在的に破損した)記述をランク付けし、最も信頼できるものを選択することで、メッセージを復号する。
我々は、このプロトコルが漸近的にエラーのない(つまり、リランカーが不完全(マローズモデルやZipf-Mandelbrotモデルに支配されている)であり、チャネル分布が統計的に依存している場合であっても、ほぼ確実に許容できる解が得られる)条件を提供する。
我々は,DeepSeek-Coder 7B によるテキスト・コード生成と TowerInstruct 13B による医療データの機械翻訳という,LLM を用いた実世界の2つのタスクを実証的に検証する法則の更新を行う。
関連論文リスト
- Developing Safe and Responsible Large Language Model : Can We Balance Bias Reduction and Language Understanding in Large Language Models? [2.089112028396727]
本研究では,大規模言語モデルが知識や理解を犠牲にすることなく,安全でバイアスのないアウトプットを生成できるかどうかを考察する。
セーフかつレスポンシブルな大規模言語モデル (textbfSR$_textLLM$) を導入する。
textbfSR$_textLLM$は知識の整合性を維持しながらバイアスを効果的に低減する。
論文 参考訳(メタデータ) (2024-04-01T18:10:05Z) - BOOST: Harnessing Black-Box Control to Boost Commonsense in LMs'
Generation [60.77990074569754]
本稿では,凍結した事前学習言語モデルを,より汎用的な生成に向けて操る,計算効率のよいフレームワークを提案する。
具体的には、まず、文に常識的スコアを割り当てる参照なし評価器を構築する。
次に、スコアラをコモンセンス知識のオラクルとして使用し、NADOと呼ばれる制御可能な生成法を拡張して補助ヘッドを訓練する。
論文 参考訳(メタデータ) (2023-10-25T23:32:12Z) - The Consensus Game: Language Model Generation via Equilibrium Search [73.51411916625032]
言語モデル復号のための学習不要なゲーム理論を新たに導入する。
本手法では,正規化不完全情報シーケンシャルシグナリングゲームとして,言語モデルの復号化を行う。
EQUILIBRium-RANKINGをLLaMA-7Bに適用すると、より大型のLLaMA-65BとPaLM-540Bより優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-10-13T14:27:21Z) - HyPoradise: An Open Baseline for Generative Speech Recognition with
Large Language Models [81.56455625624041]
ASRの誤り訂正に外部の大規模言語モデル(LLM)を利用する最初のオープンソースベンチマークを導入する。
提案したベンチマークには、334,000組以上のN-best仮説を含む新しいデータセットHyPoradise (HP)が含まれている。
合理的なプロンプトと生成能力を持つLLMは、N-bestリストに欠けているトークンを修正できる。
論文 参考訳(メタデータ) (2023-09-27T14:44:10Z) - Contrastive Decoding: Open-ended Text Generation as Optimization [153.35961722855686]
信頼性の高い復号法であるコントラスト復号法(CD)を提案する。
これは、より大きなLMの故障がより小さなLMでさらに多いという事実に着想を得たものである。
CDは追加のトレーニングを一切必要とせず、より大きなLMからの復号化よりも高品質なテキストを生成する。
論文 参考訳(メタデータ) (2022-10-27T00:58:21Z) - Principled Paraphrase Generation with Parallel Corpora [52.78059089341062]
ラウンドトリップ機械翻訳によって引き起こされる暗黙の類似性関数を形式化する。
一つのあいまいな翻訳を共有する非パラフレーズ対に感受性があることが示される。
この問題を緩和する別の類似度指標を設計する。
論文 参考訳(メタデータ) (2022-05-24T17:22:42Z) - Show Me How To Revise: Improving Lexically Constrained Sentence
Generation with XLNet [27.567493727582736]
本稿では,制約文生成のための2段階の手法"Predict and Revise"を提案する。
予測段階において、我々は分類器を利用して、候補文の学習前を計算した。
修正作業では, MCMCサンプリングを用いて, 学習前から抽出したサンプル位置でサンプル動作を行うことにより, 候補文の修正を行った。
実験結果から,提案手法は文の流布度や多様性の観点から,従来よりもはるかに優れた性能を示した。
論文 参考訳(メタデータ) (2021-09-13T09:21:07Z) - Entanglement purification by counting and locating errors with
entangling measurements [62.997667081978825]
量子状態の複数コピーに対するエンタングルメント浄化プロトコルについて検討する。
ノイズアンサンブルにおける誤差の数と位置を高次元補助的絡み合いシステムを用いて学習する。
論文 参考訳(メタデータ) (2020-11-13T19:02:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。