論文の概要: Text-Based Action-Model Acquisition for Planning
- arxiv url: http://arxiv.org/abs/2202.08373v1
- Date: Tue, 15 Feb 2022 02:23:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 14:30:22.968277
- Title: Text-Based Action-Model Acquisition for Planning
- Title(参考訳): テキストに基づく行動モデルによるプランニング
- Authors: Kebing Jin, Huaixun Chen, Hankz Hankui Zhuo
- Abstract要約: 本稿では,制約満足度と自然言語処理技術を統合することによって,自然言語テキストからアクションモデルを学ぶための新しいアプローチを提案する。
具体的には、まず、テキストからプラントレースを抽出する新しい言語モデルを構築し、それから抽出したプラントレースに基づいてアクションモデルを生成するための制約セットを構築します。
- 参考スコア(独自算出の注目度): 13.110360825201044
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Although there have been approaches that are capable of learning action
models from plan traces, there is no work on learning action models from
textual observations, which is pervasive and much easier to collect from
real-world applications compared to plan traces. In this paper we propose a
novel approach to learning action models from natural language texts by
integrating Constraint Satisfaction and Natural Language Processing techniques.
Specifically, we first build a novel language model to extract plan traces from
texts, and then build a set of constraints to generate action models based on
the extracted plan traces. After that, we iteratively improve the language
model and constraints until we achieve the convergent language model and action
models. We empirically exhibit that our approach is both effective and
efficient.
- Abstract(参考訳): プラントレースからアクションモデルを学習できるアプローチは存在するが、テキストによる観察からアクションモデルを学習する作業は存在せず、プラントレースと比較して、現実世界のアプリケーションからより広く、より簡単に収集できる。
本稿では,制約満足度と自然言語処理技術を統合し,自然言語テキストから行動モデルを学ぶための新しい手法を提案する。
具体的には、まず、テキストからプラントレースを抽出する新しい言語モデルを構築し、それから抽出したプラントレースに基づいてアクションモデルを生成するための制約セットを構築します。
その後、収束言語モデルとアクションモデルを達成するまで、言語モデルと制約を反復的に改善します。
当社のアプローチが効率的かつ効率的であることは,実証的に示しています。
関連論文リスト
- Dialogue Action Tokens: Steering Language Models in Goal-Directed Dialogue with a Multi-Turn Planner [51.77263363285369]
本稿では,対話行動トークンと呼ばれる言語モデルエージェントを用いて,目標指向の対話を計画する手法を提案する。
中心となる考え方は、各発話をアクションとして扱うことで、強化学習のような既存のアプローチを適用することができるゲームに対話を変換することである。
論文 参考訳(メタデータ) (2024-06-17T18:01:32Z) - Learning to Plan for Language Modeling from Unlabeled Data [23.042650737356496]
我々は,自己指導型学習目標を用いて,将来の執筆プロセスを計画するためのモジュールを訓練する。
テキストコンテキストを考えると、この計画モジュールは、クラスタ化されたテキスト埋め込み空間のセントロイドに対応する、将来の抽象的な書き込みアクションを予測することを学習する。
論文 参考訳(メタデータ) (2024-03-31T09:04:01Z) - PARADISE: Evaluating Implicit Planning Skills of Language Models with Procedural Warnings and Tips Dataset [0.0]
PARADISE は,wikiHow をベースとした実践的な手続きテキスト上で,Q&A 形式を用いた帰納的推論タスクである。
計画の暗黙的な知識を与えられた目標からのみ推論するモデルの能力をテストすることを目的として、中間的なステップを除く、目標に直接関連した警告およびヒント推論タスクを含む。
我々の実験は、微調整言語モデルとゼロショットプロンプトを利用して、ほとんどのシナリオにおいて、大規模言語モデルに対するタスク固有小モデルの有効性を明らかにした。
論文 参考訳(メタデータ) (2024-03-05T18:01:59Z) - Automated Action Model Acquisition from Narrative Texts [13.449750550301992]
物語テキストから構造化イベントを抽出し,計画言語スタイルのアクションモデルを生成するシステムであるNaRutoについて述べる。
古典的物語計画領域における実験結果は、NaRutoが既存の完全自動化手法よりもはるかに優れた品質のアクションモデルを生成することができることを示している。
論文 参考訳(メタデータ) (2023-07-17T07:04:31Z) - PlaSma: Making Small Language Models Better Procedural Knowledge Models for (Counterfactual) Planning [77.03847056008598]
PlaSmaは、手続き的な知識と(制約のある)言語計画能力を持つ小さな言語モデルを実現するための、新しい2段階のアプローチである。
我々は,小言語モデルにおけるコモンセンス知識を高めるための記号的手続き的知識蒸留法と,より構造化された正確な推論を容易にする推論時アルゴリズムを開発する。
論文 参考訳(メタデータ) (2023-05-31T00:55:40Z) - Grounding Language Models to Images for Multimodal Inputs and Outputs [89.30027812161686]
本稿では,事前学習したテキストのみの言語モデルを視覚領域に最適化する効率的な手法を提案する。
任意にインターリーブされた画像とテキストデータを処理し、検索した画像とインターリーブされたテキストを生成する。
論文 参考訳(メタデータ) (2023-01-31T18:33:44Z) - Towards using Few-Shot Prompt Learning for Automating Model Completion [0.0]
本稿では、ドメインモデリング活動の完了を改善するための、シンプルながら新しいアプローチを提案する。
我々のアプローチは、これらのモデルの訓練や微調整を必要とせずに、数発のプロンプト学習を使用することで、大きな言語モデルのパワーを活用できる。
論文 参考訳(メタデータ) (2022-12-07T02:11:26Z) - MOCHA: A Multi-Task Training Approach for Coherent Text Generation from
Cognitive Perspective [22.69509556890676]
本稿では,文章の認知理論に基づくコヒーレントテキスト生成のための新しいマルチタスク学習戦略を提案する。
我々は,物語生成,ニュース記事作成,議論生成という3つのオープンエンド世代タスクに対して,我々のモデルを広範囲に評価する。
論文 参考訳(メタデータ) (2022-10-26T11:55:41Z) - Few-shot Prompting Towards Controllable Response Generation [49.479958672988566]
まず,モデルのパラメータにアクセスすることなく,モデル生成に対するプロンプトと強化学習(RL)の組み合わせについて検討した。
マルチタスク学習を適用して、モデルが新しいタスクをより良く一般化できるようにします。
実験の結果,提案手法はパラメータにアクセスすることなく,複数のSOTA(State-of-the-art)対話モデルを制御することができることがわかった。
論文 参考訳(メタデータ) (2022-06-08T14:48:06Z) - Few-shot Subgoal Planning with Language Models [58.11102061150875]
事前訓練された言語モデルにエンコードされた言語は、細粒度のサブゴール列を推測できることを示す。
サブゴナル・インスペクションを強く仮定する最近の手法とは対照的に,我々の実験では,詳細なサブゴラル・シーケンスを微調整せずに推論できる言語モデルが示されている。
論文 参考訳(メタデータ) (2022-05-28T01:03:30Z) - Context-Aware Language Modeling for Goal-Oriented Dialogue Systems [84.65707332816353]
我々は、部分的に観察されたマルコフ決定過程としてゴール指向対話を定式化する。
目的を意識して言語モデルを微調整する,シンプルで効果的な手法を考案する。
本研究では,AirDialogue を用いた実践的なフライト予約タスクについて評価する。
論文 参考訳(メタデータ) (2022-04-18T17:23:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。