論文の概要: Towards Evaluating Plan Generation Approaches with Instructional Texts
- arxiv url: http://arxiv.org/abs/2001.04186v1
- Date: Mon, 13 Jan 2020 12:35:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 23:06:14.843888
- Title: Towards Evaluating Plan Generation Approaches with Instructional Texts
- Title(参考訳): 教育用テキストを用いたプラン生成手法の評価
- Authors: Debajyoti Paul Chowdhury and Arghya Biswas and Tomasz Sosnowski and
Kristina Yordanova
- Abstract要約: 83のテキスト命令からなるデータセットを英語で導入し、より構造化された形に改良し、各命令に対して手作業で計画を立てる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research in behaviour understanding through language grounding has
shown it is possible to automatically generate behaviour models from textual
instructions. These models usually have goal-oriented structure and are
modelled with different formalisms from the planning domain such as the
Planning Domain Definition Language. One major problem that still remains is
that there are no benchmark datasets for comparing the different model
generation approaches, as each approach is usually evaluated on domain-specific
application. To allow the objective comparison of different methods for model
generation from textual instructions, in this report we introduce a dataset
consisting of 83 textual instructions in English language, their refinement in
a more structured form as well as manually developed plans for each of the
instructions. The dataset is publicly available to the community.
- Abstract(参考訳): 言語基底化による行動理解に関する最近の研究により、テキスト命令から行動モデルを自動的に生成できることが示されている。
これらのモデルは通常、ゴール指向の構造を持ち、プランニングドメイン定義言語のようなプランニングドメインと異なる形式でモデル化されます。
主要な問題は、各アプローチが通常ドメイン固有のアプリケーションで評価されるため、異なるモデル生成アプローチを比較するためのベンチマークデータセットがないことである。
本報告では、テキスト命令からモデル生成のための異なる手法を客観的に比較するために、英語で83個のテキスト命令からなるデータセットと、より構造化された形式での改良と、各命令に対して手作業で開発した計画について紹介する。
データセットはコミュニティから公開されている。
関連論文リスト
- Learning to Plan for Language Modeling from Unlabeled Data [23.042650737356496]
我々は,自己指導型学習目標を用いて,将来の執筆プロセスを計画するためのモジュールを訓練する。
テキストコンテキストを考えると、この計画モジュールは、クラスタ化されたテキスト埋め込み空間のセントロイドに対応する、将来の抽象的な書き込みアクションを予測することを学習する。
論文 参考訳(メタデータ) (2024-03-31T09:04:01Z) - Unified Text Structuralization with Instruction-tuned Language Models [28.869098023025753]
テキストから様々な構造を抽出する大規模言語モデル(LLM)を提案する。
実験により、様々な言語や知識のデータセット上で、言語モデルが他の最先端の手法と同等に動作できることが示されている。
論文 参考訳(メタデータ) (2023-03-27T07:39:05Z) - Autoregressive Structured Prediction with Language Models [73.11519625765301]
本稿では, PLM を用いた自己回帰的手法を用いて, モデル構造を行動列として記述する。
我々のアプローチは、私たちが見てきた全ての構造化予測タスクにおいて、新しい最先端を実現する。
論文 参考訳(メタデータ) (2022-10-26T13:27:26Z) - Proton: Probing Schema Linking Information from Pre-trained Language
Models for Text-to-SQL Parsing [66.55478402233399]
本稿では,ポアンカー距離測定に基づく探索手法を用いて,関係構造を抽出する枠組みを提案する。
スキーマリンクの一般的なルールベース手法と比較して,探索関係は意味的対応をしっかりと捉えることができることがわかった。
我々のフレームワークは3つのベンチマークで最先端のパフォーマンスを新たに設定する。
論文 参考訳(メタデータ) (2022-06-28T14:05:25Z) - DeepStruct: Pretraining of Language Models for Structure Prediction [64.84144849119554]
テキストから構造を生成するために,タスクに依存しないコーパスの集合上で言語モデルを事前訓練する。
我々の構造事前学習は、モデルが構造タスクについて持っている学習知識のゼロショット転送を可能にする。
10Bパラメータ言語モデルがほとんどのタスクに非自明に転送し、28のデータセットのうち21の最先端のパフォーマンスを得ることを示す。
論文 参考訳(メタデータ) (2022-05-21T00:58:22Z) - Mining Logical Event Schemas From Pre-Trained Language Models [0.0]
NESL(Neuro-Episodic Learner)は,大規模な言語モデル,FrameNet解析,単純な行動スキーマのセットを組み合わせたイベントスキーマ学習システムである。
言語モデルからの注意深いサンプリングは、状況のステレオタイプ的特性を強調し、無関係な詳細を強調するのに役立つことを示す。
論文 参考訳(メタデータ) (2022-04-12T16:41:18Z) - Data-to-text Generation with Variational Sequential Planning [74.3955521225497]
非言語的な入力からテキスト出力を生成することを目的としたデータ・ツー・テキスト生成の課題について考察する。
協調的かつ有意義な方法で高レベルの情報を整理する責任を負う計画要素を付加したニューラルモデルを提案する。
我々は、計画と生成のステップをインターリーブしながら、構造化された変動モデルで逐次、潜在計画を推測する。
論文 参考訳(メタデータ) (2022-02-28T13:17:59Z) - Pre-training Language Model Incorporating Domain-specific Heterogeneous Knowledge into A Unified Representation [49.89831914386982]
本研究では, 構造化されていないテキスト, 半構造化されたテキスト, 十分に構造化されたテキストを含む, あらゆる形式のテキストに対して, 統一された事前学習言語モデル (PLM) を提案する。
提案手法は,データの1/4のみを用いて,プレーンテキストの事前学習に優れる。
論文 参考訳(メタデータ) (2021-09-02T16:05:24Z) - Learning to Synthesize Data for Semantic Parsing [57.190817162674875]
本稿では,プログラムの構成をモデル化し,プログラムを発話にマップする生成モデルを提案する。
PCFGと事前学習されたBARTの簡易性により,既存のデータから効率的に生成モデルを学習することができる。
GeoQuery と Spider の標準ベンチマークで解析する text-to-Query の in-domain と out-of-domain の両方で、この手法を評価します。
論文 参考訳(メタデータ) (2021-04-12T21:24:02Z) - Combining pre-trained language models and structured knowledge [9.521634184008574]
トランスフォーマーベースの言語モデルは、様々なNLPベンチマークにおいて、最先端の性能を実現している。
これらのモデルに知識グラフのような構造化情報を統合することは困難であることが証明されている。
構造化された知識を現在の言語モデルに統合し、課題を決定するための様々なアプローチについて検討し、構造化された情報ソースと非構造化された情報ソースの両方を活用する機会について検討する。
論文 参考訳(メタデータ) (2021-01-28T21:54:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。