論文の概要: Learning to Recover Reasoning Chains for Multi-Hop Question Answering
via Cooperative Games
- arxiv url: http://arxiv.org/abs/2004.02393v1
- Date: Mon, 6 Apr 2020 03:54:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 06:26:33.882234
- Title: Learning to Recover Reasoning Chains for Multi-Hop Question Answering
via Cooperative Games
- Title(参考訳): 協調ゲームによるマルチホップ質問応答のための推論連鎖の復元
- Authors: Yufei Feng, Mo Yu, Wenhan Xiong, Xiaoxiao Guo, Junjie Huang, Shiyu
Chang, Murray Campbell, Michael Greenspan and Xiaodan Zhu
- Abstract要約: 本稿では,弱い教師付き信号から推論連鎖を復元する学習法を提案する。
証拠通路をどのように選択し、どのように選択された通路を接続するかを2つのモデルで処理する。
評価のために、2つのマルチホップQAデータセットに基づいたベンチマークを作成しました。
- 参考スコア(独自算出の注目度): 66.98855910291292
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose the new problem of learning to recover reasoning chains from
weakly supervised signals, i.e., the question-answer pairs. We propose a
cooperative game approach to deal with this problem, in which how the evidence
passages are selected and how the selected passages are connected are handled
by two models that cooperate to select the most confident chains from a large
set of candidates (from distant supervision). For evaluation, we created
benchmarks based on two multi-hop QA datasets, HotpotQA and MedHop; and
hand-labeled reasoning chains for the latter. The experimental results
demonstrate the effectiveness of our proposed approach.
- Abstract(参考訳): 本稿では,弱教師付き信号,すなわち質問応答対から推論連鎖を回復する学習の新たな問題を提案する。
本稿では,この問題に対処する協調ゲーム手法を提案する。エビデンス・パスの選択方法と,選択したパスの接続方法は,多数の候補から最も自信あるチェーンを選択するために協力する2つのモデルによって処理される。
評価のために、HotpotQAとMedHopの2つのマルチホップQAデータセットと、後者のハンドラベル推論チェーンに基づくベンチマークを作成しました。
実験の結果,提案手法の有効性が示された。
関連論文リスト
- Chain-of-Action: Faithful and Multimodal Question Answering through Large Language Models [17.60243337898751]
マルチモーダルおよび検索強化質問応答(QA)のためのチェーン・オブ・アクション・フレームワークを提案する。
文献と比較すると、CoAは現在のQAアプリケーションにおける2つの大きな課題を克服している: (i) リアルタイムやドメインの事実と矛盾しない不誠実な幻覚、(ii) 構成情報よりも弱い推論性能。
論文 参考訳(メタデータ) (2024-03-26T03:51:01Z) - ChainLM: Empowering Large Language Models with Improved Chain-of-Thought Prompting [124.69672273754144]
CoT(Chain-of-Thought)のプロンプトにより,大規模言語モデル(LLM)の推論能力が向上する
既存のCoTアプローチは通常、単純な推論タスクに重点を置いており、結果として低品質で一貫性のないCoTプロンプトをもたらす。
優れたCoTプロンプトの自動生成のための新しいフレームワークであるCoTGeniusを紹介する。
論文 参考訳(メタデータ) (2024-03-21T11:34:26Z) - Multi-Source Test-Time Adaptation as Dueling Bandits for Extractive
Question Answering [25.44581667865143]
ユーザフィードバックからのマルチソーステストタイムモデル適応について検討した。
マルチアーム・バンディット学習とマルチアーム・デュエル・バンディットの2つの枠組みについて論じる。
マルチアームバンディット学習と比較して、このデュエルフレームワークはKモデル間のペアワイズ協調を可能にし、この研究で提案されたCo-UCBという新しい手法によって解決される。
論文 参考訳(メタデータ) (2023-06-11T21:18:50Z) - Reasoning Chain Based Adversarial Attack for Multi-hop Question
Answering [0.0]
以前の敵攻撃は通常、質問文全体を編集する。
マルチホップ推論チェーンに基づく逆攻撃手法を提案する。
その結果,回答と事実予測の双方において,大幅な性能低下が認められた。
論文 参考訳(メタデータ) (2021-12-17T18:03:14Z) - RocketQA: An Optimized Training Approach to Dense Passage Retrieval for
Open-Domain Question Answering [55.280108297460636]
オープンドメインの質問応答では、回答を見つけるための関連するパスを検索する新たなパラダイムとして、高密度なパス検索が採用されている。
我々は,高密度経路探索を改善するために,RocketQAと呼ばれる最適化されたトレーニング手法を提案する。
RocketQAには3つの主要な技術的コントリビューション、すなわちクロスバッチなネガ、デノナイズドハードなネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネ
論文 参考訳(メタデータ) (2020-10-16T06:54:05Z) - Counterfactual Variable Control for Robust and Interpretable Question
Answering [57.25261576239862]
ディープニューラルネットワークに基づく質問応答(QA)モデルは、多くの場合、堅牢でも説明もできない。
本稿では、因果推論を用いてQAモデルのこのような突発的な「能力」を検証する。
本稿では,任意のショートカット相関を明示的に緩和する,CVC(Counterfactual Variable Control)という新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-12T10:09:05Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z) - Harvesting and Refining Question-Answer Pairs for Unsupervised QA [95.9105154311491]
教師なし質問回答(QA)を改善するための2つのアプローチを提案する。
まず、ウィキペディアから語彙的・構文的に異なる質問を抽出し、質問応答対のコーパスを自動的に構築する(RefQAと名づけられる)。
第2に、より適切な回答を抽出するためにQAモデルを活用し、RefQA上でデータを反復的に洗練する。
論文 参考訳(メタデータ) (2020-05-06T15:56:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。