論文の概要: A Block Metropolis-Hastings Sampler for Controllable Energy-based Text
Generation
- arxiv url: http://arxiv.org/abs/2312.04510v1
- Date: Thu, 7 Dec 2023 18:30:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-08 13:45:23.270051
- Title: A Block Metropolis-Hastings Sampler for Controllable Energy-based Text
Generation
- Title(参考訳): 制御可能なエネルギーベーステキスト生成のためのブロックメトロポリスハスティングサンプリング
- Authors: Jarad Forristal, Niloofar Mireshghallah, Greg Durrett, Taylor
Berg-Kirkpatrick
- Abstract要約: 我々は,大規模言語モデルの反復的プロンプトを通じて,各ステップにおけるシーケンス全体の書き直しを提案する新しいメトロポリス・ハスティングス(MH)サンプリング器を開発した。
対象分布からより効率的かつ正確なサンプリングが可能となり, (b) 事前に固定するのではなく, サンプリング手順により生成長を決定することが可能となった。
- 参考スコア(独自算出の注目度): 78.81021361497311
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work has shown that energy-based language modeling is an effective
framework for controllable text generation because it enables flexible
integration of arbitrary discriminators. However, because energy-based LMs are
globally normalized, approximate techniques like Metropolis-Hastings (MH) are
required for inference. Past work has largely explored simple proposal
distributions that modify a single token at a time, like in Gibbs sampling. In
this paper, we develop a novel MH sampler that, in contrast, proposes re-writes
of the entire sequence in each step via iterative prompting of a large language
model. Our new sampler (a) allows for more efficient and accurate sampling from
a target distribution and (b) allows generation length to be determined through
the sampling procedure rather than fixed in advance, as past work has required.
We perform experiments on two controlled generation tasks, showing both
downstream performance gains and more accurate target distribution sampling in
comparison with single-token proposal techniques.
- Abstract(参考訳): 近年の研究では、任意の識別器の柔軟な統合を可能にするため、エネルギーベースの言語モデリングがテキスト生成に有効なフレームワークであることが示されている。
しかしながら、エネルギーベースのlmsはグローバルに正規化されているため、metropolis-hastings (mh) のような近似技術が推論に必要である。
過去の研究は、ギブズサンプリングのように、一度に1つのトークンを変更する単純な提案分布を主に検討してきた。
本稿では,新しいmhサンプラーを開発し,それとは対照的に,大規模言語モデルの反復的なプロンプトを通じて,各ステップのシーケンス全体を書き換える手法を提案する。
新しいサンプリング装置
(a)目標分布からのより効率的で正確なサンプリングを可能にし、
(b)過去の作業が必要とするように、前もって固定するのではなく、サンプリング手順によって生成期間を決定できる。
我々は,2つの制御された生成タスクについて実験を行い,ダウンストリーム性能向上と,より正確なターゲット分布サンプリングの両立を示す。
関連論文リスト
- FR-Spec: Accelerating Large-Vocabulary Language Models via Frequency-Ranked Speculative Sampling [59.8051705468084]
投機的サンプリングは,大規模言語モデルの自己回帰生成プロセスを促進する重要な手法として登場した。
本稿では、語彙空間圧縮によるドラフト候補選択を最適化する周波数ランクの投機的サンプリングフレームワークFR-Specを提案する。
論文 参考訳(メタデータ) (2025-02-20T18:58:10Z) - On the Query Complexity of Verifier-Assisted Language Generation [35.43462431990329]
本研究では,事前学習した言語モデル生成器を用いて制約付き生成を推論するフレームワークを開発する。
検証者へのアクセスは、難解な問題(情報理論上または計算上)を、難解な問題にレンダリングすることができる。
トークンワイド・リジェクション・サンプリングのような単純なアルゴリズムでさえ、検証器へのアクセスによる大きなメリットを享受できることを示す。
論文 参考訳(メタデータ) (2025-02-17T18:46:32Z) - Principled Gradient-based Markov Chain Monte Carlo for Text Generation [77.46654898866291]
目標エネルギーに基づくテキスト分布を正確にサンプリングするために, 忠実な勾配に基づくサンプリングアルゴリズムを提案する。
我々は、忠実なサンプリング者が制御対象に忠実に固執しながら、より流動的なテキストを生成できることを実証する。
論文 参考訳(メタデータ) (2023-12-29T18:00:56Z) - Learning Sampling Distributions for Model Predictive Control [36.82905770866734]
モデル予測制御(MPC)に対するサンプリングに基づくアプローチは、MPCに対する現代のアプローチの基盤となっている。
我々は、学習された分布を最大限に活用できるように、潜在空間における全ての操作を実行することを提案する。
具体的には、学習問題を双方向の最適化として捉え、バックプロパゲーションスルータイムでコントローラをトレーニングする方法を示す。
論文 参考訳(メタデータ) (2022-12-05T20:35:36Z) - Arithmetic Sampling: Parallel Diverse Decoding for Large Language Models [65.52639709094963]
ビームサーチやガンベルトップkサンプリングのような手法は、ビームの各要素に対して異なる出力を保証できるが、並列化は容易ではない。
本稿では,大言語モデルによって暗黙的に定義された算術符号書に従ってサンプリングを行うフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-18T22:19:41Z) - Sampling from Discrete Energy-Based Models with Quality/Efficiency
Trade-offs [3.491202838583993]
エネルギーベースモデル(EBM)は、確率分布の非常に柔軟な仕様を可能にする。
これらの分布から正確なサンプルを得るためのメカニズムは提供されていない。
そこで本研究では,サンプリング効率とサンプリング品質のトレードオフを可能にする,新しい近似サンプリング手法であるQuasi Rejection Smpling (QRS)を提案する。
論文 参考訳(メタデータ) (2021-12-10T17:51:37Z) - Reparameterized Sampling for Generative Adversarial Networks [71.30132908130581]
本稿では,マルコフ連鎖をジェネレータの潜在空間に再配置することで,一般依存型提案を可能にする新しいサンプリング手法REP-GANを提案する。
実験的な実験により、我々のREP-GANはサンプル効率を大幅に改善し、同時により良いサンプル品質を得ることを示した。
論文 参考訳(メタデータ) (2021-07-01T10:34:55Z) - Exposing the Implicit Energy Networks behind Masked Language Models via
Metropolis--Hastings [57.133639209759615]
我々は,エネルギーに基づくシーケンスモデルとしてシーケンスを解釈し,訓練者から導出される2つのエネルギーパラメトリゼーションを提案する。
我々はメトロポリス・ハスティングス・モンテカルロのアルゴリズムに基づく抽出可能なエンフスキームを開発した。
提案手法の有効性を,これらのエネルギーモデルから得られた試料の品質を探索することによって検証する。
論文 参考訳(メタデータ) (2021-06-04T22:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。