論文の概要: Unsupervised Explanation Generation for Machine Reading Comprehension
- arxiv url: http://arxiv.org/abs/2011.06737v1
- Date: Fri, 13 Nov 2020 02:58:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 00:03:10.556670
- Title: Unsupervised Explanation Generation for Machine Reading Comprehension
- Title(参考訳): 機械読解のための教師なし説明生成
- Authors: Yiming Cui, Ting Liu, Shijin Wang, Guoping Hu
- Abstract要約: 本稿では,機械読解作業のための自己説明可能なフレームワークを提案する。
提案システムでは,パス全体を用いたシステムと比較して,パス情報が少なく,同様の結果が得られるよう試みている。
提案手法を人体評価において従来の注意機構と比較した結果,提案方式は後者に比べて顕著な優位性があることが判明した。
- 参考スコア(独自算出の注目度): 36.182335120466895
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: With the blooming of various Pre-trained Language Models (PLMs), Machine
Reading Comprehension (MRC) has embraced significant improvements on various
benchmarks and even surpass human performances. However, the existing works
only target on the accuracy of the final predictions and neglect the importance
of the explanations for the prediction, which is a big obstacle when utilizing
these models in real-life applications to convince humans. In this paper, we
propose a self-explainable framework for the machine reading comprehension
task. The main idea is that the proposed system tries to use less passage
information and achieve similar results compared to the system that uses the
whole passage, while the filtered passage will be used as explanations. We
carried out experiments on three multiple-choice MRC datasets, and found that
the proposed system could achieve consistent improvements over baseline
systems. To evaluate the explainability, we compared our approach with the
traditional attention mechanism in human evaluations and found that the
proposed system has a notable advantage over the latter one.
- Abstract(参考訳): 様々な事前学習言語モデル (PLM) の出現に伴い、Machine Reading Comprehension (MRC) は様々なベンチマークで大幅に改善され、人間のパフォーマンスを超えている。
しかし、既存の研究は最終予測の精度のみを目標としており、予測のための説明の重要性を無視している。
本稿では,機械読解作業のための自己説明可能なフレームワークを提案する。
提案システムでは,提案システムでは,全経路を用いたシステムと比較して,通過情報が少なく,同様の結果が得られようとするが,フィルタされたパスは説明として使用される。
提案手法は, 3つのMRCデータセットに対して実験を行い, ベースラインシステムよりも一貫した改善が得られた。
説明可能性を評価するために,提案手法を従来の人間評価における注意機構と比較し,提案手法が後者よりも有意なアドバンテージがあることを見出した。
関連論文リスト
- Controlled Training Data Generation with Diffusion Models [48.123126522294015]
本稿では,教師あり学習のためのトレーニングデータを生成するために,テキスト・ツー・イメージ生成モデルを制御する手法を提案する。
本研究では,2つのフィードバック機構を備えたクローズドループシステムを開発した。
論文 参考訳(メタデータ) (2024-03-22T15:59:24Z) - Spot Check Equivalence: an Interpretable Metric for Information
Elicitation Mechanisms [15.542532119818794]
スポットチェックとピア予測という2つの主要なパラダイムは、人間のラベルから高品質なデータを評価し、インセンティブを与えるメカニズムの設計を可能にする。
これらのメトリクスのうち2つは、実際には特定のコンテキスト内で同じであり、3つ目の違いを説明します。
本稿では,各文脈におけるスポットチェック等価性を計算するための2つの手法を提案する。
論文 参考訳(メタデータ) (2024-02-21T06:57:07Z) - Machine-Learning Solutions for the Analysis of Single-Particle Diffusion
Trajectories [0.0]
拡散時系列の機械学習における最近導入された手法の概要について概説する。
我々は、解釈可能性を改善し、マシンの学習プロセスに関する具体的な洞察を提供するとともに、不確実性の推定と特徴に基づくアプローチを含む手段に焦点を当てる。
論文 参考訳(メタデータ) (2023-08-18T09:29:29Z) - Counterfactual Explanation via Search in Gaussian Mixture Distributed
Latent Space [19.312306559210125]
対実説明(CE)は2つの問題に対処するアルゴリズム・リコースにおいて重要なツールである。
簡単に理解しやすい説明を提供することによって、AIシステムに対するユーザのインタラクションを導くことは、AIシステムの信頼できる採用と長期的な受け入れに不可欠である。
本稿では,まずオートエンコーダの潜伏空間をガウス分布の混合として形成することにより,事前学習されたバイナリ分類器のCEを生成する手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T10:21:26Z) - Towards Explainable Evaluation Metrics for Machine Translation [32.69015745456696]
説明可能な機械翻訳メトリクスの重要な目的だけでなく、重要な特性も識別する。
本稿では,ChatGPT や GPT4 などの生成モデルに基づく説明可能なメトリクスに対する最新の最先端手法について論じる。
論文 参考訳(メタデータ) (2023-06-22T17:07:57Z) - Robust Saliency-Aware Distillation for Few-shot Fine-grained Visual
Recognition [57.08108545219043]
サンプルが少ない新しいサブカテゴリを認識することは、コンピュータビジョンにおいて不可欠で挑戦的な研究課題である。
既存の文献は、ローカルベースの表現アプローチを採用することでこの問題に対処している。
本稿では,ロバスト・サリエンシ・アウェア蒸留法(RSaD)を提案する。
論文 参考訳(メタデータ) (2023-05-12T00:13:17Z) - Better Understanding Differences in Attribution Methods via Systematic Evaluations [57.35035463793008]
モデル決定に最も影響を及ぼす画像領域を特定するために、ポストホック属性法が提案されている。
本稿では,これらの手法の忠実度をより確実に評価するための3つの新しい評価手法を提案する。
これらの評価手法を用いて、広範囲のモデルにおいて広く用いられている属性手法の長所と短所について検討する。
論文 参考訳(メタデータ) (2023-03-21T14:24:58Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Explain and Predict, and then Predict Again [6.865156063241553]
説明生成フェーズにおけるマルチタスク学習を用いたExPredを、効果的なトレードオフ説明と予測損失として提案します。
3つの多様な言語データセットに対するアプローチを幅広く評価しています。
論文 参考訳(メタデータ) (2021-01-11T19:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。