論文の概要: Natural Language Decomposition and Interpretation of Complex Utterances
- arxiv url: http://arxiv.org/abs/2305.08677v1
- Date: Mon, 15 May 2023 14:35:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 14:16:14.296659
- Title: Natural Language Decomposition and Interpretation of Complex Utterances
- Title(参考訳): 自然言語の分解と複雑な発話の解釈
- Authors: Harsh Jhamtani, Hao Fang, Patrick Xia, Eran Levy, Jacob Andreas, Ben
Van Durme
- Abstract要約: 本稿では,複雑な発話を扱うために,単純な言語からコードへのモデルを導入するアプローチを提案する。
我々のアプローチは、事前訓練された言語モデルを用いて、複雑な発話をより小さな自然言語ステップのシーケンスに分解する。
実験の結果,提案手法は複雑な発話の解釈を可能にし,複雑な学習データはほとんどないことがわかった。
- 参考スコア(独自算出の注目度): 34.927205364034414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural language interfaces often require supervised data to translate user
requests into programs, database queries, or other structured intent
representations. During data collection, it can be difficult to anticipate and
formalize the full range of user needs -- for example, in a system designed to
handle simple requests (like $\textit{find my meetings tomorrow}$ or
$\textit{move my meeting with my manager to noon})$, users may also express
more elaborate requests (like $\textit{swap all my calls on Monday and
Tuesday}$). We introduce an approach for equipping a simple language-to-code
model to handle complex utterances via a process of hierarchical natural
language decomposition. Our approach uses a pre-trained language model to
decompose a complex utterance into a sequence of smaller natural language
steps, then interprets each step using the language-to-code model. To test our
approach, we collect and release DeCU -- a new NL-to-program benchmark to
evaluate Decomposition of Complex Utterances. Experiments show that the
proposed approach enables the interpretation of complex utterances with almost
no complex training data, while outperforming standard few-shot prompting
approaches.
- Abstract(参考訳): 自然言語インタフェースは、ユーザリクエストをプログラム、データベースクエリ、その他の構造化意図表現に変換するために、しばしば教師付きデータを必要とする。
例えば、単純なリクエストを処理するように設計されたシステム(例えば、$\textit{find my meeting}$や$\textit{move my meeting with my Manager to noon})では、より精巧なリクエスト(例えば、月曜と火曜日のすべての呼び出しに対して$\textit{swap)を表現できる。
本稿では,階層的な自然言語分解のプロセスを通じて,複雑な発話を処理するための単純な言語とコードモデルを導入するアプローチを提案する。
このアプローチでは,学習済みの言語モデルを用いて,複雑な発話をより小さな自然言語ステップの列に分解し,各ステップを言語からコードへのモデルで解釈する。
このアプローチをテストするために、我々はDeCU(Decomposition of Complex Utterances)を評価する新しいNL-to- programベンチマーク)を収集、リリースした。
実験により,提案手法により,複雑な訓練データを持たない複雑な発話の解釈が可能となり,かつ,標準のマイナショット・プロンプト手法を上回っていることが示された。
関連論文リスト
- Interpreting User Requests in the Context of Natural Language Standing
Instructions [89.12540932734476]
我々は17のドメインにまたがる2.4K以上の対話からなる言語とプログラムのデータセットであるNLSIを開発した。
NLSIの鍵となる課題は、ある対話に適用可能なスタンディング命令のサブセットを特定することである。
論文 参考訳(メタデータ) (2023-11-16T11:19:26Z) - Can Large Language Models Understand Real-World Complex Instructions? [54.86632921036983]
大型言語モデル(LLM)は人間の指示を理解することができるが、複雑な命令には耐えられない。
既存のベンチマークでは、LLMが複雑な命令を理解する能力を評価するには不十分である。
複雑な命令を体系的に追従するLSMの能力を評価するためのベンチマークであるCellOを提案する。
論文 参考訳(メタデータ) (2023-09-17T04:18:39Z) - nl2spec: Interactively Translating Unstructured Natural Language to
Temporal Logics with Large Language Models [3.1143846686797314]
大規模言語モデル(LLM)を適用するためのフレームワークであるnl2specは、構造化されていない自然言語から正式な仕様を導出する。
本稿では,自然言語におけるシステム要求のあいまいさを検知し,解決する新たな手法を提案する。
ユーザは、これらのサブ翻訳を反復的に追加、削除、編集して、不正なフォーマル化を修正する。
論文 参考訳(メタデータ) (2023-03-08T20:08:53Z) - Modeling Sequential Sentence Relation to Improve Cross-lingual Dense
Retrieval [87.11836738011007]
マスク付き文モデル(MSM)と呼ばれる多言語多言語言語モデルを提案する。
MSMは、文表現を生成する文エンコーダと、文書から文ベクトルのシーケンスに適用される文書エンコーダとから構成される。
モデルをトレーニングするために,サンプル負の階層的コントラスト損失によって文ベクトルをマスクし,予測するマスク付き文予測タスクを提案する。
論文 参考訳(メタデータ) (2023-02-03T09:54:27Z) - Prompting Is Programming: A Query Language for Large Language Models [5.8010446129208155]
我々はLMP(Language Model Programming)という新しいアイデアを提示する。
LMPは、純粋なテキストプロンプトからテキストプロンプトとスクリプティングの直感的な組み合わせまで、言語モデルを一般化する。
LMQLは、さまざまな最先端のプロンプトメソッドを直感的にキャプチャできることを示す。
論文 参考訳(メタデータ) (2022-12-12T18:09:09Z) - Benchmarking Language Models for Code Syntax Understanding [79.11525961219591]
事前学習された言語モデルは、自然言語処理とプログラム理解の両方において素晴らしい性能を示している。
本研究では,プログラムの構文構造を特定するための,最先端の事前訓練モデルの最初の徹底的なベンチマークを行う。
この結果から,既存のプログラミング言語の事前学習手法の限界が指摘され,構文構造をモデル化することの重要性が示唆された。
論文 参考訳(メタデータ) (2022-10-26T04:47:18Z) - Towards Transparent Interactive Semantic Parsing via Step-by-Step
Correction [17.000283696243564]
自然言語における予測論理形式を段階的に説明する対話型意味解析フレームワークについて検討する。
フレームワークのインスタンス化として,知識ベース(KBQA)に対する質問応答に注目した。
実験の結果,人間のフィードバックによる対話型フレームワークは,全体の解析精度を大幅に向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2021-10-15T20:11:22Z) - Learning Adaptive Language Interfaces through Decomposition [89.21937539950966]
本稿では,分解による新しいハイレベルな抽象化を学習するニューラルセマンティック解析システムを提案する。
ユーザは、新しい振る舞いを記述する高レベルな発話を低レベルなステップに分解することで、対話的にシステムを教える。
論文 参考訳(メタデータ) (2020-10-11T08:27:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。