論文の概要: HOP, UNION, GENERATE: Explainable Multi-hop Reasoning without Rationale
Supervision
- arxiv url: http://arxiv.org/abs/2305.14237v1
- Date: Tue, 23 May 2023 16:53:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 14:34:23.325791
- Title: HOP, UNION, GENERATE: Explainable Multi-hop Reasoning without Rationale
Supervision
- Title(参考訳): HOP, UNION, Genee: Rationale Supervisionのない説明可能なマルチホップ推論
- Authors: Wenting Zhao and Justin T. Chiu and Claire Cardie and Alexander M.
Rush
- Abstract要約: 本研究は、合理的な監督なしに説明可能なマルチホップQAシステムを訓練するための原則的確率論的アプローチを提案する。
提案手法は,集合としての有理を明示的にモデル化し,文書と文間の相互作用を文書内で捉えることによって,マルチホップ推論を行う。
- 参考スコア(独自算出の注目度): 118.0818807474809
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable multi-hop question answering (QA) not only predicts answers but
also identifies rationales, i. e. subsets of input sentences used to derive the
answers. This problem has been extensively studied under the supervised
setting, where both answer and rationale annotations are given. Because
rationale annotations are expensive to collect and not always available, recent
efforts have been devoted to developing methods that do not rely on supervision
for rationales. However, such methods have limited capacities in modeling
interactions between sentences, let alone reasoning across multiple documents.
This work proposes a principled, probabilistic approach for training
explainable multi-hop QA systems without rationale supervision. Our approach
performs multi-hop reasoning by explicitly modeling rationales as sets,
enabling the model to capture interactions between documents and sentences
within a document. Experimental results show that our approach is more accurate
at selecting rationales than the previous methods, while maintaining similar
accuracy in predicting answers.
- Abstract(参考訳): 説明可能なマルチホップ質問応答(QA)は、回答を予測するだけでなく、理性も識別する。
e.
答えを導き出すために使われる入力文のサブセット。
この問題は教師付きセッティングの下で広く研究され、回答と合理性の両方が与えられる。
合理性アノテーションは収集にコストがかかり、必ずしも利用可能ではないため、最近の取り組みは合理性に対する監督に依存しない手法の開発に費やされてきた。
しかし,このような手法は文間の相互作用をモデル化する能力に限界がある。
本研究は、合理的な監督なしに説明可能なマルチホップQAシステムを訓練するための原則的確率論的アプローチを提案する。
本手法は,合理性を集合として明示的にモデル化することでマルチホップ推論を行い,文書内の文書と文間の相互作用をモデル化する。
実験の結果,提案手法は従来の手法よりも精度が高く,回答予測にも類似した精度を保っていることがわかった。
関連論文リスト
- Abductive Commonsense Reasoning Exploiting Mutually Exclusive
Explanations [118.0818807474809]
帰納的推論は、イベントのもっともらしい説明を見つけることを目的としている。
自然言語処理における帰納的推論のための既存のアプローチは、しばしば監督のために手動で生成されたアノテーションに依存している。
この研究は、ある文脈に対して、説明のサブセットのみが正しいという事実を活用する、帰納的コモンセンス推論のアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:35:10Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Reasoning Circuits: Few-shot Multihop Question Generation with
Structured Rationales [11.068901022944015]
連鎖論理生成は多段階推論タスクの性能を向上させることが示されている。
極めて低い監督体制下でのマルチホップ質問生成にチェーン・オブ・インスパイアされた構造的合理的生成を適用するための新しい枠組みを導入する。
論文 参考訳(メタデータ) (2022-11-15T19:36:06Z) - Locate Then Ask: Interpretable Stepwise Reasoning for Multi-hop Question
Answering [71.49131159045811]
マルチホップ推論では、複雑な質問に答えるために複数の文書を集約する必要がある。
既存の方法は通常、マルチホップの質問を単純なシングルホップの質問に分解する。
そこで本研究では,単一ホップ支援文識別と単一ホップ質問生成の両方を組み込む,解釈可能な段階的推論フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-22T13:24:25Z) - Interlock-Free Multi-Aspect Rationalization for Text Classification [33.33452117387646]
マルチアスペクト設定におけるインターロック問題に対処することを示す。
自己監督型コントラスト損失を付加した多段階学習手法を提案する。
ビールレビューデータセットにおける実験結果から,本手法は合理化性能を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2022-05-13T16:38:38Z) - ReasonBERT: Pre-trained to Reason with Distant Supervision [17.962648165675684]
ReasonBertは、言語モデルを拡張し、長距離関係や複数の、おそらくはハイブリッドなコンテキストを推論する能力を持つ事前学習手法である。
様々な種類の推論がシミュレートされ、複数の証拠を交わし、ある証拠から別の証拠に橋渡しし、解決不可能な事例を検出する。
論文 参考訳(メタデータ) (2021-09-10T14:49:44Z) - Robustifying Multi-hop QA through Pseudo-Evidentiality Training [28.584236042324896]
本研究では,正解法を使わずに正しい解答を行うマルチホップ質問応答モデルのバイアス問題について検討する。
そこで本稿では, 正解が正しい証拠によって裏付けられるかどうかを判断し, 明解性を学習するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-07-07T14:15:14Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - Generative Context Pair Selection for Multi-hop Question Answering [60.74354009152721]
マルチホップ質問応答のための生成コンテキスト選択モデルを提案する。
提案した生成経路選択モデルは,対向保留集合上でのより良い性能(ベースラインより4.9%高い)を有する。
論文 参考訳(メタデータ) (2021-04-18T07:00:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。