論文の概要: You Can Do Better! If You Elaborate the Reason When Making Prediction
- arxiv url: http://arxiv.org/abs/2103.14919v1
- Date: Sat, 27 Mar 2021 14:55:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 15:26:51.820760
- Title: You Can Do Better! If You Elaborate the Reason When Making Prediction
- Title(参考訳): より良くできる!
予測をするときの理由を解明するなら
- Authors: Dongfang Li, Jingcong Tao, Qingcai Chen, Baotian Hu
- Abstract要約: 本論文では,大きな学習済み言語モデルと組み合わせた新しいニューラル予測フレームワークを提案し,予測を行い,それに対応する説明を同時に生成する。
中国の医学的複数選択質問応答, 英語自然言語推論, 常識質問回答タスクに関する予備的実証的研究を行った。
また,提案手法は,3つのデータセットに対する予測精度の向上も達成し,意思決定プロセスにおける説明の生成による予測のメリットが示唆された。
- 参考スコア(独自算出の注目度): 13.658942796267015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural predictive models have achieved groundbreaking performance
improvements in various natural language processing tasks. However, most of
neural predictive models suffer from the lack of explainability of predictions,
limiting their practical utility, especially in the medical domain. This paper
proposes a novel neural predictive framework coupled with large pre-trained
language models to make a prediction and generate its corresponding explanation
simultaneously. We conducted a preliminary empirical study on Chinese medical
multiple-choice question answering, English natural language inference and
commonsense question answering tasks. The experimental results show that the
proposed approach can generate reasonable explanations for its predictions even
with a small-scale training explanation text. The proposed method also achieves
improved prediction accuracy on three datasets, which indicates that making
predictions can benefit from generating the explanation in the decision
process.
- Abstract(参考訳): ニューラル予測モデルは、様々な自然言語処理タスクにおいて画期的なパフォーマンス改善を達成している。
しかしながら、ほとんどの神経予測モデルは、予測の説明可能性の欠如に悩まされ、特に医学領域において、実用性を制限する。
本稿では,大規模な事前学習言語モデルと結合して,予測を行い,それに対応する説明を同時に生成する新しいニューラルネットワーク予測フレームワークを提案する。
本研究は,中国語の医学的マルチチョイス質問応答,英語自然言語推論,コモンセンス質問応答課題に関する予備的検討を行った。
実験結果から,提案手法は,小規模の訓練説明文でも合理的に予測できることがわかった。
また,提案手法は,3つのデータセットに対する予測精度の向上を実現し,意思決定プロセスにおける説明の生成による予測のメリットを示す。
関連論文リスト
- Why can neural language models solve next-word prediction? A
mathematical perspective [53.807657273043446]
本研究では,英語文の実例をモデル化するための形式言語群について検討する。
我々の証明は、ニューラルネットワークモデルにおける埋め込み層と完全に接続されたコンポーネントの異なる役割を強調します。
論文 参考訳(メタデータ) (2023-06-20T10:41:23Z) - A Lightweight Generative Model for Interpretable Subject-level Prediction [0.07989135005592125]
本稿では,本質的に解釈可能な単一対象予測手法を提案する。
実験により、結果のモデルを効率よく逆転させ、正確な主観レベルの予測を行うことが示されている。
論文 参考訳(メタデータ) (2023-06-19T18:20:29Z) - Explaining Hate Speech Classification with Model Agnostic Methods [0.9990687944474738]
本研究の目的は、ヘイトスピーチ予測と、その決定を支援するためにシステムによって生成された説明とのギャップを埋めることである。
これは、まずテキストの分類を予測し、その後、ポストホック、モデル非依存、代理的解釈可能性アプローチを提供することによって達成されている。
論文 参考訳(メタデータ) (2023-05-30T19:52:56Z) - Faithfulness Tests for Natural Language Explanations [87.01093277918599]
ニューラルモデルの説明は、その予測のためのモデルの意思決定プロセスを明らかにすることを目的としている。
近年の研究では,サリエンシマップやファクトファクトファクトダクトなどの説明を行う手法が誤解を招く可能性があることが示されている。
本研究は,自然言語の説明の忠実さを評価する上での課題について考察する。
論文 参考訳(メタデータ) (2023-05-29T11:40:37Z) - Explaining Language Models' Predictions with High-Impact Concepts [11.47612457613113]
概念ベースの解釈可能性手法をNLPに拡張するための完全なフレームワークを提案する。
出力予測が大幅に変化する特徴を最適化する。
本手法は, ベースラインと比較して, 予測的影響, ユーザビリティ, 忠実度に関する優れた結果が得られる。
論文 参考訳(メタデータ) (2023-05-03T14:48:27Z) - Rationalizing Predictions by Adversarial Information Calibration [65.19407304154177]
我々は2つのモデルを共同で訓練する: 1つは、正確だがブラックボックスな方法でタスクを解く典型的なニューラルモデルであり、もう1つは、予測の理論的根拠を付加するセレクタ・予測モデルである。
我々は,2つのモデルから抽出した情報を,それらの違いが欠落した特徴や過度に選択された特徴の指標であるように校正するために,敵対的手法を用いる。
論文 参考訳(メタデータ) (2023-01-15T03:13:09Z) - Pathologies of Pre-trained Language Models in Few-shot Fine-tuning [50.3686606679048]
実例が少ない事前学習言語モデルはラベル間に強い予測バイアスを示すことを示す。
わずかな微調整で予測バイアスを軽減できるが,本分析では,非タスク関連の特徴を捉えることで,モデルの性能向上を図っている。
これらの観察は、より少ない例でモデルのパフォーマンスを追求することは、病理学的予測行動を引き起こす可能性があることを警告する。
論文 参考訳(メタデータ) (2022-04-17T15:55:18Z) - Training Deep Models to be Explained with Fewer Examples [40.58343220792933]
我々は、サンプル数を減らすために、スパース正規化器と同時に予測モデルと説明モデルを訓練する。
いくつかのデータセットを用いた実験により,提案手法は予測性能を維持しながら忠実性を向上させることを示した。
論文 参考訳(メタデータ) (2021-12-07T05:39:21Z) - Towards Interpretable Natural Language Understanding with Explanations
as Latent Variables [146.83882632854485]
そこで本研究では,人間に注釈付き説明文の小さなセットだけを必要とする自然言語理解の枠組みを構築した。
我々のフレームワークは、ニューラルネットワークの基本的な推論過程をモデル化する潜在変数として、自然言語の説明を扱う。
論文 参考訳(メタデータ) (2020-10-24T02:05:56Z) - Are Visual Explanations Useful? A Case Study in Model-in-the-Loop
Prediction [49.254162397086006]
画像に基づく年齢予測課題における視覚的満足度に基づく説明について検討する。
モデル予測の提示により,人間の精度が向上することが判明した。
しかし、様々な種類の説明は、人間の正確さやモデルの信頼を著しく変えることができない。
論文 参考訳(メタデータ) (2020-07-23T20:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。