論文の概要: Controlled Text Generation via Language Model Arithmetic
- arxiv url: http://arxiv.org/abs/2311.14479v2
- Date: Wed, 6 Mar 2024 09:36:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 17:44:57.117302
- Title: Controlled Text Generation via Language Model Arithmetic
- Title(参考訳): 言語モデル演算によるテキスト生成制御
- Authors: Jasper Dekoninck, Marc Fischer, Luca Beurer-Kellner, Martin Vechev
- Abstract要約: 本稿では,大規模言語モデルの合成とバイアス化のための新しい推論フレームワークであるモデル演算を導入する。
モデル算術により生成したテキストのきめ細かい制御が可能であり, 毒性低減の課題において, 最先端の処理性能に優れることを示す。
- 参考スコア(独自算出の注目度): 7.687678490751105
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As Large Language Models (LLMs) are deployed more widely, customization with
respect to vocabulary, style, and character becomes more important. In this
work, we introduce model arithmetic, a novel inference framework for composing
and biasing LLMs without the need for model (re)training or highly specific
datasets. In addition, the framework allows for more precise control of
generated text than direct prompting and prior controlled text generation (CTG)
techniques. Using model arithmetic, we can express prior CTG techniques as
simple formulas and naturally extend them to new and more effective
formulations. Further, we show that speculative sampling, a technique for
efficient LLM sampling, extends to our setting. This enables highly efficient
text generation with multiple composed models with only marginal overhead over
a single model. Our empirical evaluation demonstrates that model arithmetic
allows fine-grained control of generated text while outperforming
state-of-the-art on the task of toxicity reduction. We release an open source
easy-to-use implementation of our framework at
https://github.com/eth-sri/language-model-arithmetic.
- Abstract(参考訳): 大規模言語モデル(llm)がより広く展開されるにつれて、語彙、スタイル、性格に関するカスタマイズがより重要になる。
本稿では,モデル(再)学習や高度に特定されたデータセットを必要とせず,llmの構成とバイアスを行う新しい推論フレームワークであるmodel arithmeticを紹介する。
さらに、このフレームワークは、直接プロンプトや事前制御テキスト生成(ctg)技術よりも、より正確な生成テキストの制御を可能にする。
モデル算術を用いて,従来のCTG手法を簡単な公式として表現し,それらを新しいより効果的な定式化へと自然に拡張することができる。
さらに,効率的なLCMサンプリング手法である投機的サンプリングが,我々の設定にまで拡張されていることを示す。
これにより、複数の合成モデルによる高効率なテキスト生成が可能で、1つのモデルに対して限界オーバーヘッドしか持たない。
実験結果から,モデル算術によって生成テキストの細粒度制御が可能となり,毒性低減の課題において最先端を上回った。
私たちは、フレームワークのオープンソース実装をhttps://github.com/eth-sri/language-model-arithmeticでリリースします。
関連論文リスト
- A Simple yet Efficient Ensemble Approach for AI-generated Text Detection [0.5840089113969194]
大規模言語モデル(LLM)は、人間の文章によく似たテキストを生成する際、顕著な能力を示した。
人工的に生成されたテキストと人間が作成したテキストを区別できる自動化アプローチを構築することが不可欠である。
本稿では,複数の構成 LLM からの予測をまとめて,シンプルで効率的な解を提案する。
論文 参考訳(メタデータ) (2023-11-06T13:11:02Z) - Reward-Augmented Decoding: Efficient Controlled Text Generation With a
Unidirectional Reward Model [47.722856876213946]
Reward-Augmented Decoding (RAD) は、言語モデルに特定の特性を持つテキストを生成するよう促すために、小さな一方向の報酬モデルを使用するテキスト生成プロシージャである。
一方向の報酬モデルを使用することで、RADは前世代のステップからアクティベーションをキャッシュすることで、計算オーバーヘッドを低減できる。
論文 参考訳(メタデータ) (2023-10-14T07:19:47Z) - LLM-augmented Preference Learning from Natural Language [19.700169351688768]
大規模言語モデル(LLM)は、より大きな文脈長を扱う。
LLM は、ターゲットテキストが大きければ SotA を一貫して上回る。
ゼロショット学習よりもパフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-10-12T17:17:27Z) - Language models are weak learners [71.33837923104808]
本研究では,プロンプトベースの大規模言語モデルは弱い学習者として効果的に動作可能であることを示す。
これらのモデルをブースティングアプローチに組み込むことで、モデル内の知識を活用して、従来のツリーベースのブースティングよりも優れています。
結果は、プロンプトベースのLLMが、少数の学習者だけでなく、より大きな機械学習パイプラインのコンポーネントとして機能する可能性を示している。
論文 参考訳(メタデータ) (2023-06-25T02:39:19Z) - Extrapolating Multilingual Understanding Models as Multilingual
Generators [82.1355802012414]
本稿では,多言語理解モデルに統一モデルを得るための生成能力を付与する手法について検討する。
少数の新しいパラメータを持つ多言語ジェネレータにエンコーダを適用するために,textbfSemantic-textbfGuided textbfAlignment-then-Denoising (SGA)アプローチを提案する。
論文 参考訳(メタデータ) (2023-05-22T15:33:21Z) - Tractable Control for Autoregressive Language Generation [82.79160918147852]
本稿では,自動回帰テキスト生成モデルに語彙制約を課すために,トラクタブル確率モデル(TPM)を提案する。
本稿では,GeLaToが制約付きテキスト生成のための挑戦的ベンチマークにおいて,最先端のパフォーマンスを実現することを示す。
我々の研究は、大きな言語モデルを制御するための新しい道を開き、さらに表現力のあるTPMの開発を動機付けます。
論文 参考訳(メタデータ) (2023-04-15T00:19:44Z) - Few-shot Prompting Towards Controllable Response Generation [49.479958672988566]
まず,モデルのパラメータにアクセスすることなく,モデル生成に対するプロンプトと強化学習(RL)の組み合わせについて検討した。
マルチタスク学習を適用して、モデルが新しいタスクをより良く一般化できるようにします。
実験の結果,提案手法はパラメータにアクセスすることなく,複数のSOTA(State-of-the-art)対話モデルを制御することができることがわかった。
論文 参考訳(メタデータ) (2022-06-08T14:48:06Z) - Classifiers are Better Experts for Controllable Text Generation [63.17266060165098]
提案手法は, PPLにおける最近のPPLM, GeDi, DExpertsよりも有意に優れており, 生成したテキストの外部分類器に基づく感情の精度が高いことを示す。
同時に、実装やチューニングも簡単で、制限や要件も大幅に少なくなります。
論文 参考訳(メタデータ) (2022-05-15T12:58:35Z) - Evaluation of HTR models without Ground Truth Material [2.4792948967354236]
手書き文字認識モデルの開発における評価は容易である。
しかし、開発からアプリケーションに切り替えると、評価プロセスはトリッキーになります。
我々は,レキシコンに基づく評価が,レキシコンに基づく手法と競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T01:26:09Z) - Controlled Text Generation as Continuous Optimization with Multiple
Constraints [23.71027518888138]
事前学習したモデルから制御可能な推論を行うためのフレキシブルでモジュラーなアルゴリズムを提案する。
所望のテキストを生成するために,ラグランジアン乗算器と勾配差に基づく手法を用いる。
我々は,複数の文レベル属性を用いた制御可能な機械翻訳とスタイル変換のアプローチを評価する。
論文 参考訳(メタデータ) (2021-08-04T05:25:20Z) - SDA: Improving Text Generation with Self Data Augmentation [88.24594090105899]
自動データ拡張のための自己模倣学習フェーズを組み込むことにより,標準最大確率推定(MLE)パラダイムを改善することを提案する。
既存の文レベルの拡張戦略とは異なり,本手法はより汎用的で,任意のMLEベースの訓練手順に容易に適応できる。
論文 参考訳(メタデータ) (2021-01-02T01:15:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。