論文の概要: A Framework for Rationale Extraction for Deep QA models
- arxiv url: http://arxiv.org/abs/2110.04620v1
- Date: Sat, 9 Oct 2021 18:02:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-16 22:03:37.073678
- Title: A Framework for Rationale Extraction for Deep QA models
- Title(参考訳): 深部QAモデルのためのRationale抽出のためのフレームワーク
- Authors: Sahana Ramnath, Preksha Nema, Deep Sahni, Mitesh M. Khapra
- Abstract要約: 我々は「統合グラディエント」を用いて、読解に基づく質問回答(RCQA)タスクにおける既存の最先端モデルの理論的根拠を抽出する。
抽出された有理数の40~80%は人間の有理数の6~19%が抽出された有理数の6~19%しか存在しない(リコール)。
- 参考スコア(独自算出の注目度): 18.810643224314223
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As neural-network-based QA models become deeper and more complex, there is a
demand for robust frameworks which can access a model's rationale for its
prediction. Current techniques that provide insights on a model's working are
either dependent on adversarial datasets or are proposing models with explicit
explanation generation components. These techniques are time-consuming and
challenging to extend to existing models and new datasets. In this work, we use
`Integrated Gradients' to extract rationale for existing state-of-the-art
models in the task of Reading Comprehension based Question Answering (RCQA). On
detailed analysis and comparison with collected human rationales, we find that
though ~40-80% words of extracted rationale coincide with the human rationale
(precision), only 6-19% of human rationale is present in the extracted
rationale (recall).
- Abstract(参考訳): ニューラルネットワークベースのQAモデルはより深く複雑になるにつれて、その予測に対するモデルの理論的根拠にアクセスできる堅牢なフレームワークが求められている。
モデル動作に関する洞察を提供する現在の技術は、敵のデータセットに依存するか、明示的な説明生成コンポーネントを持つモデルを提案する。
これらのテクニックは、既存のモデルや新しいデータセットを拡張するのに時間がかかり、困難です。
本研究では,既存の最先端モデルに対する根拠抽出に<Integrated Gradients' を用いて,包括的質問回答(RCQA)の処理を行う。
抽出された有理数のうち40~80%の単語は人間の有理数(精度)と一致するが、抽出された有理数(リコール)には人間の有理数の6~19%しか存在しない。
関連論文リスト
- FIARSE: Model-Heterogeneous Federated Learning via Importance-Aware Submodel Extraction [26.26211464623954]
Federated Importance-Aware Submodel extract (FIARSE)は、モデルパラメータの重要性に基づいて、サブモデルを動的に調整する新しいアプローチである。
既存の研究と比較して,提案手法はサブモデル抽出の理論的基礎を提供する。
提案したFIARSEの優れた性能を示すため,様々なデータセットで大規模な実験を行った。
論文 参考訳(メタデータ) (2024-07-28T04:10:11Z) - Likelihood-free Model Choice for Simulator-based Models with the
Jensen--Shannon Divergence [0.9884867402204268]
JSD-Razorと呼ばれる可能性のない設定に対する一貫したスコアリング基準を導出する。
JSD-Razorと確率ベースアプローチの確立された評価基準との関係を解析した。
論文 参考訳(メタデータ) (2022-06-08T18:16:00Z) - Distributional Depth-Based Estimation of Object Articulation Models [21.046351215949525]
本研究では,奥行き画像から直接,調音モデルパラメータの分布を効率よく学習する手法を提案する。
私たちのコアコントリビューションには、剛体変換に対する分布の新しい表現が含まれています。
本稿では,カテゴリに依存しない調音モデル推定を行う新しい深層学習手法DUST-netを提案する。
論文 参考訳(メタデータ) (2021-08-12T17:44:51Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - A Simple Approach to Case-Based Reasoning in Knowledge Bases [56.661396189466664]
我々は,古典人工知能(AI)におけるケースベース推論を想起させる,アンフノトレーニングを必要とする知識グラフ(KG)における推論に対する驚くほど単純かつ正確なアプローチを提案する。
ソースエンティティとバイナリ関係が与えられたターゲットエンティティを見つけるタスクを考えてみましょう。
我々の非パラメトリックなアプローチは、与えられた関係を通して類似したソースエンティティを接続する複数のテキストトグラフパスパターンを見つけることによって、クエリ毎にクレープな論理ルールを導出します。
論文 参考訳(メタデータ) (2020-06-25T06:28:09Z) - Amortized Bayesian model comparison with evidential deep learning [0.12314765641075436]
本稿では,専門的なディープラーニングアーキテクチャを用いたベイズモデルの比較手法を提案する。
提案手法は純粋にシミュレーションベースであり,観測された各データセットに対して,すべての代替モデルを明示的に適合させるステップを回避している。
提案手法は,本研究で検討した事例に対して,精度,キャリブレーション,効率の点で優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2020-04-22T15:15:46Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。