論文の概要: Automated Action Model Acquisition from Narrative Texts
- arxiv url: http://arxiv.org/abs/2307.10247v1
- Date: Mon, 17 Jul 2023 07:04:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-21 16:38:36.241957
- Title: Automated Action Model Acquisition from Narrative Texts
- Title(参考訳): ナラティブテキストからの自動行動モデル獲得
- Authors: Ruiqi Li, Leyang Cui, Songtuan Lin, Patrik Haslum
- Abstract要約: 物語テキストから構造化イベントを抽出し,計画言語スタイルのアクションモデルを生成するシステムであるNaRutoについて述べる。
古典的物語計画領域における実験結果は、NaRutoが既存の完全自動化手法よりもはるかに優れた品質のアクションモデルを生成することができることを示している。
- 参考スコア(独自算出の注目度): 13.449750550301992
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Action models, which take the form of precondition/effect axioms, facilitate
causal and motivational connections between actions for AI agents. Action model
acquisition has been identified as a bottleneck in the application of planning
technology, especially within narrative planning. Acquiring action models from
narrative texts in an automated way is essential, but challenging because of
the inherent complexities of such texts. We present NaRuto, a system that
extracts structured events from narrative text and subsequently generates
planning-language-style action models based on predictions of commonsense event
relations, as well as textual contradictions and similarities, in an
unsupervised manner. Experimental results in classical narrative planning
domains show that NaRuto can generate action models of significantly better
quality than existing fully automated methods, and even on par with those of
semi-automated methods.
- Abstract(参考訳): プレコンディション/エフェクトの公理の形をとるアクションモデルは、AIエージェントのアクション間の因果関係と動機関係を促進する。
行動モデル取得は、特に物語計画における計画技術の応用におけるボトルネックとして認識されている。
物語テキストから自動でアクションモデルを取得することは不可欠であるが、そのようなテキスト固有の複雑さのために困難である。
本稿では,ナラティブテキストから構造化イベントを抽出し,その後,コモンセンスイベント関係の予測に基づく計画言語形式の行動モデルを生成するシステムであるナルトについて,教師なしの方法で述べる。
古典的な物語計画領域における実験結果は、NaRutoが既存の完全自動化手法よりもはるかに優れた品質のアクションモデルを生成することができることを示している。
関連論文リスト
- Attacks against Abstractive Text Summarization Models through Lead Bias and Influence Functions [1.7863534204867277]
大規模言語モデルは、敵の摂動やデータ中毒攻撃に弱い。
本研究では,要約モデルに固有の鉛バイアスを生かして,新しいアプローチを明らかにする。
また, インフルエンス関数の革新的な適用法を導入し, データ中毒を発生させ, モデルの整合性を損なう。
論文 参考訳(メタデータ) (2024-10-26T00:35:15Z) - Visual Storytelling with Question-Answer Plans [70.89011289754863]
本稿では、事前訓練された言語モデルと計画に視覚表現を統合する新しいフレームワークを提案する。
我々のモデルは、画像列を視覚的な接頭辞、つまり言語モデルで解釈できる連続的な埋め込みの列に変換する。
また、一連の質問と回答のペアを青写真プランとして利用して、健全な視覚概念を選択し、物語にどのように組み立てるべきかを決定する。
論文 参考訳(メタデータ) (2023-10-08T21:45:34Z) - Structured Like a Language Model: Analysing AI as an Automated Subject [0.0]
我々は、大規模言語モデルに対する主観性の意図的な予測は、AIの振る舞いを分析できる別のフレームを生み出すことができると論じる。
我々は、最先端の自然言語処理性能を実現するシステムのリリースにおいて、言語モデルに関する短い歴史を辿る。
批判的メディア手法と精神分析理論が組み合わさって、AI駆動型言語システムの強力な新しい能力を把握するための生産的枠組みを提供すると結論付けている。
論文 参考訳(メタデータ) (2022-12-08T21:58:43Z) - EtriCA: Event-Triggered Context-Aware Story Generation Augmented by
Cross Attention [17.049035309926637]
本稿では、生成したストーリーの関連性とコヒーレンスを改善する新しいニューラルジェネレーションモデルであるEtriCAを提案する。
我々のモデルは最先端のベースラインを著しく上回ります。
論文 参考訳(メタデータ) (2022-10-22T14:51:12Z) - Zero-Shot On-the-Fly Event Schema Induction [61.91468909200566]
本稿では,大規模な言語モデルを用いて,高レベルなイベント定義,特定のイベント,引数,それらの関係を予測・付与するソースドキュメントを生成する手法を提案する。
我々のモデルを用いて、任意のトピックに関する完全なスキーマを、手動のデータ収集、すなわちゼロショットの方法で、オンザフライで生成することができる。
論文 参考訳(メタデータ) (2022-10-12T14:37:00Z) - Generating Coherent Narratives by Learning Dynamic and Discrete Entity
States with a Contrastive Framework [68.1678127433077]
我々はトランスフォーマーモデルを拡張して,物語生成のためのエンティティ状態更新と文実現を動的に行う。
2つのナラティブデータセットの実験により、我々のモデルは強いベースラインよりも一貫性があり多様なナラティブを生成できることが示された。
論文 参考訳(メタデータ) (2022-08-08T09:02:19Z) - Text-Based Action-Model Acquisition for Planning [13.110360825201044]
本稿では,制約満足度と自然言語処理技術を統合することによって,自然言語テキストからアクションモデルを学ぶための新しいアプローチを提案する。
具体的には、まず、テキストからプラントレースを抽出する新しい言語モデルを構築し、それから抽出したプラントレースに基づいてアクションモデルを生成するための制約セットを構築します。
論文 参考訳(メタデータ) (2022-02-15T02:23:31Z) - Goal-Aware Prediction: Learning to Model What Matters [105.43098326577434]
学習した前進力学モデルを使用する際の根本的な課題の1つは、学習したモデルの目的と下流のプランナーやポリシーの目標とのミスマッチである。
本稿では,タスク関連情報への直接的予測を提案し,そのモデルが現在のタスクを認識し,状態空間の関連量のみをモデル化することを奨励する。
提案手法は,目標条件付きシーンの関連部分を効果的にモデル化し,その結果,標準タスク非依存のダイナミックスモデルやモデルレス強化学習より優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-14T16:42:59Z) - Improving Adversarial Text Generation by Modeling the Distant Future [155.83051741029732]
テキスト計画手法を考察し、上記の問題を緩和するためのモデルに基づく模倣学習手法を提案する。
本稿では,より長い地平線上の生成過程に焦点をあてる新しいガイドネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-04T05:45:13Z) - Temporal Embeddings and Transformer Models for Narrative Text
Understanding [72.88083067388155]
キャラクタ関係モデリングのための物語テキスト理解のための2つのアプローチを提案する。
これらの関係の時間的進化は動的単語埋め込みによって説明され、時間とともに意味的変化を学ぶように設計されている。
最新の変換器モデルBERTに基づく教師付き学習手法を用いて文字間の静的な関係を検出する。
論文 参考訳(メタデータ) (2020-03-19T14:23:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。