論文の概要: DECIDER: A Dual-System Rule-Controllable Decoding Framework for Language Generation
- arxiv url: http://arxiv.org/abs/2403.01954v4
- Date: Sun, 04 May 2025 06:48:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:34.918812
- Title: DECIDER: A Dual-System Rule-Controllable Decoding Framework for Language Generation
- Title(参考訳): DECIDER: 言語生成のためのデュアルシステムルール制御可能なデコードフレームワーク
- Authors: Chen Xu, Tian Lan, Yu Ji, Changlong Yu, Wei Wang, Jun Gao, Qunxi Dong, Kun Qian, Piji Li, Wei Bi, Bin Hu,
- Abstract要約: 制約付き復号法は,事前訓練された大言語(Ms と PLMs)が生成するテキストの意味やスタイルを,推論時に様々なタスクに対して制御することを目的としている。
これらの方法は、しばしば、欲求的かつ明示的にターゲットを選択することによって、もっともらしい連続を導く。
認知二重プロセス理論に着想を得て,新しい復号化フレームワークDECDERを提案する。
- 参考スコア(独自算出の注目度): 57.07295906718989
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Constrained decoding approaches aim to control the meaning or style of text generated by the pre-trained large language models (LLMs or also PLMs) for various tasks at inference time. However, these methods often guide plausible continuations by greedily and explicitly selecting targets. Though fulfilling the task requirements, these methods may overlook certain general and natural logics that humans would implicitly follow towards such targets. Inspired by cognitive dual-process theory, in this work, we propose a novel decoding framework DECIDER where the base LLMs are equipped with a First-Order Logic (FOL) reasoner to express and evaluate the rules, along with a decision function that merges the outputs of both systems to guide the generation. Unlike previous constrained decodings, DECIDER transforms the encouragement of target-specific words into all words that satisfy several high-level rules, enabling us to programmatically integrate our logic into LLMs. Experiments on CommonGen and PersonaChat demonstrate that DECIDER effectively follows given FOL rules to guide LLMs in a more human-like and logic-controlled manner.
- Abstract(参考訳): 制約付き復号法は、事前訓練された大規模言語モデル(LLMまたはPLM)によって生成されたテキストの意味やスタイルを推論時に様々なタスクに対して制御することを目的としている。
しかし、これらの手法は、しばしば強欲に、明示的にターゲットを選択することによって、もっともらしい継続を導く。
タスク要件を満たす一方で、これらの手法は人間がそのような目標に向かって暗黙的に従うような、ある種の一般論理や自然論理を無視することができる。
認知二重プロセス理論に触発されて,本研究では,基本LLMに規則を表現・評価するための一階論理(FOL)推論器と,両システムの出力をマージして生成を誘導する決定関数を備えた,新しい復号化フレームワークDECDERを提案する。
従来の制約付き復号法とは異なり、DECDERはターゲット固有の単語の促進を複数の高レベルな規則を満たす全ての単語に変換することで、論理をLLMにプログラム的に統合することを可能にする。
CommonGen と PersonaChat の実験では、DECDER はより人間らしく論理的に制御された方法で LLM を導くために与えられた FOL ルールを効果的に従っている。
関連論文リスト
- Text-to-Decision Agent: Learning Generalist Policies from Natural Language Supervision [36.643102023506614]
本稿では,自然言語による一般政策学習を指導するフレームワークであるText-to-Decision Agent (T2DA)を提案する。
我々は,T2DAが高容量ゼロショットの一般化を促進し,様々なベースラインを上回ることを示す。
論文 参考訳(メタデータ) (2025-04-21T12:00:20Z) - CodeGRAG: Bridging the Gap between Natural Language and Programming Language via Graphical Retrieval Augmented Generation [58.84212778960507]
我々は,LLMの性能を高めるため,グラフィカル検索拡張コード生成フレームワークであるCodeGRAGを提案する。
CodeGRAGは、制御フローとデータフローに基づいて、コードブロックのグラフィカルなビューを構築し、プログラミング言語と自然言語のギャップを埋める。
ハードメタグラフプロンプト、ソフトプロンプト技術、事前訓練されたGNN専門家の目的の有効性を検証するために、C++言語とピソン言語の両方を含む4つのデータセットで様々な実験と改善が行われた。
論文 参考訳(メタデータ) (2024-05-03T02:48:55Z) - Natural Language as Policies: Reasoning for Coordinate-Level Embodied Control with LLMs [7.746160514029531]
ロボットのタスク計画問題に対処するLLMによる実験結果を示す。
提案手法はタスクとシーンオブジェクトのテキスト記述を取得し,自然言語推論によるタスクプランニングを定式化する。
提案手法はマルチモーダル・プロンプト・シミュレーション・ベンチマークを用いて評価する。
論文 参考訳(メタデータ) (2024-03-20T17:58:12Z) - Successor Features for Efficient Multisubject Controlled Text Generation [48.37713738712319]
本稿では,後継機能 (SF) と言語モデル修正の2つの基本概念を基礎とするSF-GENを紹介する。
SF-GENはこの2つをシームレスに統合し、LCMのパラメータを変更することなくテキスト生成の動的ステアリングを可能にする。
我々の知る限り、本研究はテキスト生成における後継機能の最初の応用である。
論文 参考訳(メタデータ) (2023-11-03T00:17:08Z) - PADL: Language-Directed Physics-Based Character Control [66.517142635815]
本稿では,文字が行うべきハイレベルなタスクと低レベルなスキルを指定するために,ユーザが自然言語コマンドを発行できるようにするPADLを提案する。
我々は,シミュレーションされたヒューマノイドキャラクタを効果的に誘導し,多種多様な複雑な運動能力を実現するために,本フレームワークを適用した。
論文 参考訳(メタデータ) (2023-01-31T18:59:22Z) - Learning to Solve Voxel Building Embodied Tasks from Pixels and Natural
Language Instructions [53.21504989297547]
本研究では,Minecraftのような環境下でのオブジェクト構築作業において,言語モデルと強化学習を組み合わせた新しい手法を提案する。
提案手法は,まず命令から一貫した達成可能なサブゴールのセットを生成し,学習済みのRLポリシーで関連するサブタスクを完了させる。
論文 参考訳(メタデータ) (2022-11-01T18:30:42Z) - Controllable Natural Language Generation with Contrastive Prefixes [120.12778570283956]
GPT2生成は、自然言語生成を操るために、プレフィックスと呼ばれる小さな属性固有のベクトルのセットを利用する。
単一アスペクト制御のための接頭辞を訓練するための新しい教師なし手法と教師なし手法を提案する。
単一アスペクト制御と多アスペクト制御の両方の実験結果から,提案手法は高い言語的品質を維持しつつ,所望の属性に向かって生成を導くことができることがわかった。
論文 参考訳(メタデータ) (2022-02-27T00:31:03Z) - Natural Language Specification of Reinforcement Learning Policies
through Differentiable Decision Trees [10.406631494442683]
人間-AIポリシー仕様は、人間がロボットの強化学習ポリシーを協調的に温めるための、我々が定義した新しい手順である。
我々は,自律エージェントの行動の初期化と解釈を可能にする,新しい協調フレームワークを開発した。
提案手法は,ドメイン探索コストを増大させることなく,未経験の自然言語仕様を利用することで,RLエージェントをウォームスタートさせる。
論文 参考訳(メタデータ) (2021-01-18T16:07:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。