論文の概要: Towards Controllable Natural Language Inference through Lexical
Inference Types
- arxiv url: http://arxiv.org/abs/2308.03581v1
- Date: Mon, 7 Aug 2023 13:37:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 13:34:03.894951
- Title: Towards Controllable Natural Language Inference through Lexical
Inference Types
- Title(参考訳): 語彙推論型による制御可能な自然言語推論に向けて
- Authors: Yingji Zhang, Danilo S. Carvalho, Ian Pratt-Hartmann, Andre Freitas
- Abstract要約: 本論文では,多分野説明推論のための制御された自然言語推論アーキテクチャを提案する。
抽象的意味表現(AMR)グラフに基づいて語彙推論型を定義し、T5のアーキテクチャを変更して、その型情報に基づく潜在文表現(T5のボトルネック)を学習する。
また、約5000の注釈付き説明推論ステップのデータセットも提供します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable natural language inference aims to provide a mechanism to produce
explanatory (abductive) inference chains which ground claims to their
supporting premises. A recent corpus called EntailmentBank strives to advance
this task by explaining the answer to a question using an entailment tree
\cite{dalvi2021explaining}. They employ the T5 model to directly generate the
tree, which can explain how the answer is inferred. However, it lacks the
ability to explain and control the generation of intermediate steps, which is
crucial for the multi-hop inference process. % One recent corpus,
EntailmentBank, aims to push this task forward by explaining an answer to a
question according to an entailment tree \cite{dalvi2021explaining}. They
employ T5 to generate the tree directly, which can explain how the answer is
inferred but cannot explain how the intermediate is generated, which is
essential to the multi-hop inference process. In this work, we focus on
proposing a controlled natural language inference architecture for
multi-premise explanatory inference. To improve control and enable explanatory
analysis over the generation, we define lexical inference types based on
Abstract Meaning Representation (AMR) graph and modify the architecture of T5
to learn a latent sentence representation (T5 bottleneck) conditioned on said
type information. We also deliver a dataset of approximately 5000 annotated
explanatory inference steps, with well-grounded lexical-symbolic operations.
Experimental results indicate that the inference typing induced at the T5
bottleneck can help T5 to generate a conclusion under explicit control.
- Abstract(参考訳): 説明可能な自然言語推論(Explainable natural language inference)は、説明的推論チェーンを生成するメカニズムを提供することを目的としている。
EntailmentBankという最近のコーパスは、entailment tree \cite{dalvi2021explaining}を使って質問に対する回答を説明することによって、このタスクを進めようとしている。
彼らはt5モデルを使って木を直接生成し、どのように答えが推測されるかを説明することができる。
しかし、中間ステップの生成を説明・制御する能力が欠如しており、これはマルチホップ推論プロセスに不可欠である。
% 最近の1社であるEntailmentBankは、entailment tree \cite{dalvi2021explaining} で質問に対する回答を説明することによって、この課題を推し進めることを目指している。
彼らはT5を用いてツリーを直接生成し、答えがどのように推論されるかを説明するが、中間体がどのように生成されるかは説明できない。
本研究では,多分野説明推論のための制御された自然言語推論アーキテクチャを提案する。
生成の制御を改善し,説明的分析を可能にするために,抽象意味表現(amr)グラフに基づく語彙推論型を定義し,t5のアーキテクチャを変更し,その型情報に基づく潜在文表現(t5ボトルネック)を学習する。
約5000の注釈付き説明的推論ステップのデータセットも提供しています。
実験の結果,t5のボトルネックで誘発される推論型付けは,t5が明示的な制御下で結論を出すのに役立つことが示唆された。
関連論文リスト
- Surprise! Uniform Information Density Isn't the Whole Story: Predicting Surprisal Contours in Long-form Discourse [54.08750245737734]
話者は、階層的に構造化された談話モデル内の位置に基づいて、情報率を変調する。
階層的予測器は談話の情報輪郭の重要な予測器であり,深い階層的予測器は浅い予測器よりも予測力が高いことがわかった。
論文 参考訳(メタデータ) (2024-10-21T14:42:37Z) - An Incomplete Loop: Deductive, Inductive, and Abductive Learning in Large Language Models [99.31449616860291]
現代の言語モデル(LM)は、異なる方法で新しいタスクを実行することを学べる。
次の命令では、ターゲットタスクは自然言語で明示的に記述され、少数ショットプロンプトでは、タスクは暗黙的に指定される。
命令推論では、LMはインコンテキストの例を示し、自然言語のタスク記述を生成するように促される。
論文 参考訳(メタデータ) (2024-04-03T19:31:56Z) - Leveraging Structured Information for Explainable Multi-hop Question
Answering and Reasoning [14.219239732584368]
本研究では,マルチホップ質問応答のための抽出された意味構造(グラフ)の構築と活用について検討する。
実験結果と人的評価の結果から、我々のフレームワークはより忠実な推論連鎖を生成し、2つのベンチマークデータセットのQA性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-11-07T05:32:39Z) - STREET: A Multi-Task Structured Reasoning and Explanation Benchmark [56.555662318619135]
マルチタスクとマルチドメインの自然言語推論と説明ベンチマークを統一的に導入する。
我々は、モデルが質問に答えるだけでなく、ある解の正しさを証明できる中間的な結論を生成するために、問題の前提がどのように使われているかを記述する、段階的に構造化された説明を生成することを期待している。
論文 参考訳(メタデータ) (2023-02-13T22:34:02Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - "Mama Always Had a Way of Explaining Things So I Could Understand'': A
Dialogue Corpus for Learning to Construct Explanations [26.540485804067536]
対話的説明の最初のコーパスを導入し,人間の説明の仕方についてNLP研究を可能にする。
コーパスは、Wiredのテレビシリーズ『emph5 Levels』の65の英訳対話からなり、13のトピックと5人の熟練者について解説している。
論文 参考訳(メタデータ) (2022-09-06T14:00:22Z) - Maieutic Prompting: Logically Consistent Reasoning with Recursive
Explanations [71.2950434944196]
ノイズや一貫性のない言語モデルでさえも問題に対する正しい答えを推測するMaieutic Promptingを開発する。
Maieutic Promptingは最先端のプロンプト法よりも最大20%精度が高い。
論文 参考訳(メタデータ) (2022-05-24T06:36:42Z) - ExplanationLP: Abductive Reasoning for Explainable Science Question
Answering [4.726777092009554]
本稿では,帰納的推論問題としての質問応答について考察する。
それぞれの選択に対して妥当な説明を構築し、最終回答として最適な説明で候補を選択する。
提案システムであるExplainationLPは,各候補の回答に対して,関連事実の重み付きグラフを構築して説明を行う。
論文 参考訳(メタデータ) (2020-10-25T14:49:24Z) - Towards Interpretable Natural Language Understanding with Explanations
as Latent Variables [146.83882632854485]
そこで本研究では,人間に注釈付き説明文の小さなセットだけを必要とする自然言語理解の枠組みを構築した。
我々のフレームワークは、ニューラルネットワークの基本的な推論過程をモデル化する潜在変数として、自然言語の説明を扱う。
論文 参考訳(メタデータ) (2020-10-24T02:05:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。