論文の概要: Active entailment encoding for explanation tree construction using
parsimonious generation of hard negatives
- arxiv url: http://arxiv.org/abs/2208.01376v1
- Date: Tue, 2 Aug 2022 11:48:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-03 12:51:29.301023
- Title: Active entailment encoding for explanation tree construction using
parsimonious generation of hard negatives
- Title(参考訳): 硬質負の擬似生成を用いた説明木構築のためのアクティブエンテーメント符号化
- Authors: Alex Bogatu, Zili Zhou, D\'onal Landers, Andr\'e Freitas
- Abstract要約: 説明生成の人的推論過程をシミュレートするエンターメントツリーが提案されている。
実際には、これらの説明木を手作業で構築することは、人間の積極的な関与を必要とする退屈なプロセスを証明する。
我々は、アクティブな前提選択ステップのシーケンスとして、エンテーメントツリーの構築をフレーム化します。
- 参考スコア(独自算出の注目度): 1.9062627409621
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Entailment trees have been proposed to simulate the human reasoning process
of explanation generation in the context of open--domain textual question
answering. However, in practice, manually constructing these explanation trees
proves a laborious process that requires active human involvement. Given the
complexity of capturing the line of reasoning from question to the answer or
from claim to premises, the issue arises of how to assist the user in
efficiently constructing multi--level entailment trees given a large set of
available facts. In this paper, we frame the construction of entailment trees
as a sequence of active premise selection steps, i.e., for each intermediate
node in an explanation tree, the expert needs to annotate positive and negative
examples of premise facts from a large candidate list. We then iteratively
fine--tune pre--trained Transformer models with the resulting positive and
tightly controlled negative samples and aim to balance the encoding of semantic
relationships and explanatory entailment relationships. Experimental evaluation
confirms the measurable efficiency gains of the proposed active fine--tuning
method in facilitating entailment trees construction: up to 20\% improvement in
explanatory premise selection when compared against several alternatives.
- Abstract(参考訳): Entailment trees have been proposed to simulate the human reasoning process of explanation generation in the context of open--domain textual question answering. However, in practice, manually constructing these explanation trees proves a laborious process that requires active human involvement. Given the complexity of capturing the line of reasoning from question to the answer or from claim to premises, the issue arises of how to assist the user in efficiently constructing multi--level entailment trees given a large set of available facts.
本稿では,説明ツリー内の各中間ノードに対して,大きな候補リストから前提事実の肯定的かつ否定的な例をアノテートする必要がある。
そこで我々は, 正負の正負の正負のサンプルを持つ事前学習型トランスフォーマーモデルを反復的に微調整し, 意味的関係と説明的関係のエンコーディングのバランスをとることを目的とする。
実験により, 提案手法の有効性向上を実証し, 提案手法の有効性向上を実証し, 提案手法をいくつかの方法と比較した場合, 説明的前提選択の最大20倍の改善が得られた。
関連論文リスト
- Why do Random Forests Work? Understanding Tree Ensembles as
Self-Regularizing Adaptive Smoothers [68.76846801719095]
統計学で広く普及している偏りと分散還元に対する現在の高次二分法は、木のアンサンブルを理解するには不十分である、と我々は主張する。
森林は、通常暗黙的に絡み合っている3つの異なるメカニズムによって、樹木を改良できることを示す。
論文 参考訳(メタデータ) (2024-02-02T15:36:43Z) - Tree Prompting: Efficient Task Adaptation without Fine-Tuning [112.71020326388029]
Tree Promptingはプロンプトの決定ツリーを構築し、複数のLMコールをリンクしてタスクを解決する。
分類データセットの実験により、Tree Promptingは競合するメソッドよりも精度が向上し、微調整と競合することが示された。
論文 参考訳(メタデータ) (2023-10-21T15:18:22Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Characterizing Intrinsic Compositionality in Transformers with Tree
Projections [72.45375959893218]
トランスのようなニューラルモデルは、入力の異なる部分間で情報を任意にルーティングすることができる。
3つの異なるタスクに対するトランスフォーマーは、トレーニングの過程でより木のようなものになることを示す。
これらの木はモデル挙動を予測し、より木のようなモデルは構成的一般化のテストにおいてより良く一般化する。
論文 参考訳(メタデータ) (2022-11-02T17:10:07Z) - RLET: A Reinforcement Learning Based Approach for Explainable QA with
Entailment Trees [47.745218107037786]
本稿では,強化学習に基づくEntailment Tree生成フレームワークであるRLETを提案する。
RLETは文の選択と推論生成モジュールによる単一ステップ推論を反復的に行う。
EntailmentBankデータセットの3つの設定の実験では、RLフレームワークを使用することの強みが示されている。
論文 参考訳(メタデータ) (2022-10-31T06:45:05Z) - Entailment Tree Explanations via Iterative Retrieval-Generation Reasoner [56.08919422452905]
我々はIRGR(Iterative Retrieval-Generation Reasoner)と呼ばれるアーキテクチャを提案する。
本モデルでは,テキストの前提からステップバイステップの説明を体系的に生成することにより,与えられた仮説を説明することができる。
前提条件の検索と細分化木の生成に関する既存のベンチマークを上回り、全体の正しさはおよそ300%向上した。
論文 参考訳(メタデータ) (2022-05-18T21:52:11Z) - Optimal Counterfactual Explanations in Tree Ensembles [3.8073142980733]
我々は「最適」な説明を目的としたモデルに基づく探索を提唱し、効率的な混合整数プログラミング手法を提案する。
孤立林は我々のフレームワーク内でモデル化され、低いアウトリーチスコアで妥当な説明に焦点を絞ることができることを示す。
論文 参考訳(メタデータ) (2021-06-11T22:44:27Z) - Explaining Answers with Entailment Trees [16.555369850015055]
我々は,証拠が回答にどのようにつながるのかを体系的に示すことで,回答を説明することを目的とする。
私たちのアプローチは、エンテイメントツリー、すなわち、中間的な結論を通じて知られている事実から最終的な答えまで、エンテイメントステップのツリーの形で説明を生成することです。
このスキルでモデルをトレーニングするために、マルチステップのエンテイメントツリーを含む最初のデータセットであるEnTAILMENTBANKを作成しました。
論文 参考訳(メタデータ) (2021-04-17T23:13:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。