論文の概要: Controllable Generation via Locally Constrained Resampling
- arxiv url: http://arxiv.org/abs/2410.13111v1
- Date: Thu, 17 Oct 2024 00:49:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-18 13:23:07.809993
- Title: Controllable Generation via Locally Constrained Resampling
- Title(参考訳): 局所拘束型再サンプリングによる制御可能生成
- Authors: Kareem Ahmed, Kai-Wei Chang, Guy Van den Broeck,
- Abstract要約: 本研究では, ベイズ条件付けを行い, 制約条件下でサンプルを描画する, トラクタブルな確率的手法を提案する。
提案手法はシーケンス全体を考慮し,現行のグリード法よりも大域的に最適に制約された生成を導出する。
提案手法は, 有害な世代からモデル出力を分離し, 脱毒化に対する同様のアプローチより優れていることを示す。
- 参考スコア(独自算出の注目度): 77.48624621592523
- License:
- Abstract: Autoregressive models have demonstrated an unprecedented ability at modeling the intricacies of natural language. However, they continue to struggle with generating complex outputs that adhere to logical constraints. Sampling from a fully-independent distribution subject to a constraint is hard. Sampling from an autoregressive distribution subject to a constraint is doubly hard: We have to contend not only with the hardness of the constraint but also the distribution's lack of structure. We propose a tractable probabilistic approach that performs Bayesian conditioning to draw samples subject to a constraint. Our approach considers the entire sequence, leading to a more globally optimal constrained generation than current greedy methods. Starting from a model sample, we induce a local, factorized distribution which we can tractably condition on the constraint. To generate samples that satisfy the constraint, we sample from the conditional distribution, correct for biases in the samples and resample. The resulting samples closely approximate the target distribution and are guaranteed to satisfy the constraints. We evaluate our approach on several tasks, including LLM detoxification and solving Sudoku puzzles. We show that by disallowing a list of toxic expressions our approach is able to steer the model's outputs away from toxic generations, outperforming similar approaches to detoxification. We conclude by showing that our approach achieves a perfect accuracy on Sudoku compared to <50% for GPT4-o and Gemini 1.5.
- Abstract(参考訳): 自己回帰モデルは、自然言語の複雑さをモデル化する前例のない能力を示している。
しかし、彼らは論理的制約に従う複雑なアウトプットの生成に苦戦し続けている。
制約対象の完全独立分布からのサンプリングは困難である。
制約対象の自己回帰分布からサンプリングすることは、二重に困難である: 制約の硬さだけでなく、分布の構造の欠如と競合しなければならない。
本研究では, ベイズ条件付けを行い, 制約条件下でサンプルを描画する, トラクタブルな確率的手法を提案する。
提案手法はシーケンス全体を考慮し,現行のグリード法よりも大域的に最適に制約された生成を導出する。
モデルサンプルから始めると、局所的に分解された分布を誘導し、制約を確実に条件付けできる。
制約を満たすサンプルを生成するために,条件分布からサンプルを抽出し,サンプルのバイアスを補正し再サンプリングする。
得られたサンプルは、ターゲット分布を近似し、制約を満たすことが保証される。
LLMのデトックス化やスドクパズルの解法など,いくつかの課題に対するアプローチの評価を行った。
有毒な表現のリストを無効にすることで、我々のアプローチは、有害な世代からモデル出力を奪取することができ、解毒に対する同様のアプローチよりも優れていることを示す。
GPT4-o および Gemini 1.5 に対し,本手法は 50% の精度でSudoku の精度を達成できることを示した。
関連論文リスト
- Theory on Score-Mismatched Diffusion Models and Zero-Shot Conditional Samplers [49.97755400231656]
本報告では,明示的な次元の一般スコアミスマッチ拡散サンプリング器を用いた最初の性能保証について述べる。
その結果, スコアミスマッチは, 目標分布とサンプリング分布の分布バイアスとなり, 目標分布とトレーニング分布の累積ミスマッチに比例することがわかった。
この結果は、測定ノイズに関係なく、任意の条件モデルに対するゼロショット条件付きサンプリングに直接適用することができる。
論文 参考訳(メタデータ) (2024-10-17T16:42:12Z) - Tamed Langevin sampling under weaker conditions [27.872857402255775]
ログコンケーブではなく,弱い散逸性しか持たない分布から抽出する問題について検討する。
そこで本研究では,対象分布の成長と崩壊特性に合わせたテイミング手法を提案する。
提案したサンプルに対して,Kulback-Leiblerの発散,全変動,ワッサーシュタイン距離といった条件で明確な非漸近保証を与える。
論文 参考訳(メタデータ) (2024-05-27T23:00:40Z) - A Pseudo-Semantic Loss for Autoregressive Models with Logical
Constraints [87.08677547257733]
ニューロシンボリックAIは、純粋にシンボリックな学習とニューラルな学習のギャップを埋める。
本稿では,ニューラルネットワークの出力分布に対するシンボリック制約の可能性を最大化する方法を示す。
また,スドクと最短経路予測の手法を自己回帰世代として評価した。
論文 参考訳(メタデータ) (2023-12-06T20:58:07Z) - Zero-Shot Conditioning of Score-Based Diffusion Models by Neuro-Symbolic Constraints [1.1826485120701153]
本研究では,事前学習した無条件スコアベース生成モデルを用いて,任意の論理的制約の下で条件分布からサンプルを抽出する手法を提案する。
ユーザ定義制約の非正規化分布条件から標本化するために,学習したスコアの操作方法を示す。
ソフト論理制約を符号化するための柔軟で数値的に安定なニューロシンボリック・フレームワークを定義する。
論文 参考訳(メタデータ) (2023-08-31T08:25:47Z) - Tailoring Language Generation Models under Total Variation Distance [55.89964205594829]
ニューラルネットワーク生成の標準パラダイムは、最適化方法として最大推定(MLE)を採用する。
言語生成に適用するための実践的境界を開発する。
本稿では,TVD推定のトレードオフのバランスをとるためのTaiLr の目標について紹介する。
論文 参考訳(メタデータ) (2023-02-26T16:32:52Z) - Breaking the Spurious Causality of Conditional Generation via Fairness
Intervention with Corrective Sampling [77.15766509677348]
条件生成モデルは、トレーニングデータセットから急激な相関を継承することが多い。
これは別の潜在属性に対して不均衡なラベル条件分布をもたらす。
この問題を緩和するための一般的な2段階戦略を提案する。
論文 参考訳(メタデータ) (2022-12-05T08:09:33Z) - Distributional Reinforcement Learning via Moment Matching [54.16108052278444]
ニューラルネットワークを用いて各戻り分布から統計量の有限集合を学習する手法を定式化する。
我々の手法は、戻り分布とベルマン目標の間のモーメントの全ての順序を暗黙的に一致させるものとして解釈できる。
Atariゲームスイートの実験により,本手法は標準分布RLベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-07-24T05:18:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。