論文の概要: Post-hoc Interpretability for Neural NLP: A Survey
- arxiv url: http://arxiv.org/abs/2108.04840v5
- Date: Tue, 28 Nov 2023 06:39:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 18:16:09.746596
- Title: Post-hoc Interpretability for Neural NLP: A Survey
- Title(参考訳): ニューラルNLPのポストホック解釈可能性:サーベイ
- Authors: Andreas Madsen, Siva Reddy, Sarath Chandar
- Abstract要約: 解釈可能性(英: Interpretability)は、人間にとって理解しやすい言葉で説明を提供することである。
この調査は、最近のポストホック解釈可能性法がいかに人間に説明を伝えるかの分類を提供する。
- 参考スコア(独自算出の注目度): 38.67924043709067
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks for NLP are becoming increasingly complex and widespread, and
there is a growing concern if these models are responsible to use. Explaining
models helps to address the safety and ethical concerns and is essential for
accountability. Interpretability serves to provide these explanations in terms
that are understandable to humans. Additionally, post-hoc methods provide
explanations after a model is learned and are generally model-agnostic. This
survey provides a categorization of how recent post-hoc interpretability
methods communicate explanations to humans, it discusses each method in-depth,
and how they are validated, as the latter is often a common concern.
- Abstract(参考訳): nlpのニューラルネットワークはますます複雑で広くなりつつあり、これらのモデルの使用に責任があるかどうかの懸念が高まっている。
モデルを説明することは、安全性と倫理上の懸念に対処し、説明責任に不可欠である。
解釈性は、人間に理解できる言葉でこれらの説明を提供するのに役立つ。
さらに、post-hocメソッドは、モデルが学習され、一般的にモデルに依存しない後に説明を提供する。
この調査は、最近のポストホック解釈可能性法がいかに人間に説明を伝えるか、そして、それぞれの方法が深く、どのように検証されるかを分類する。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Testing the effectiveness of saliency-based explainability in NLP using
randomized survey-based experiments [0.6091702876917281]
Explainable AIにおける多くの研究は、NLPモデルの動作と予測に関する人間の洞察を与える説明方法を考案することを目的としている。
自然に人間の傾向やバイアスは、人間の説明を理解するのに役立ちます。
自然言語処理におけるサリエンシに基づくポストホック説明可能性手法の有効性を理解するために,ランダム化されたサーベイベース実験を設計した。
論文 参考訳(メタデータ) (2022-11-25T08:49:01Z) - On the Robustness of Explanations of Deep Neural Network Models: A
Survey [14.940679892694089]
本稿では,Deep Neural Network(DNN)モデルの説明を研究・理解・攻撃・防衛する手法の総合的な調査を行う。
また,説明手法の評価や属性攻撃,防衛手法の詳細な検討を行う。
論文 参考訳(メタデータ) (2022-11-09T10:14:21Z) - Towards Faithful Model Explanation in NLP: A Survey [48.690624266879155]
エンドツーエンドのニューラルネットワーク処理(NLP)モデルを理解するのは非常に難しい。
モデル説明の一側面は忠実さであり、すなわち、説明はモデルの予測の背後にある推論過程を正確に表現すべきである。
我々は,NLPにおける110以上のモデル説明法を忠実度レンズを用いてレビューした。
論文 参考訳(メタデータ) (2022-09-22T21:40:51Z) - NELLIE: A Neuro-Symbolic Inference Engine for Grounded, Compositional, and Explainable Reasoning [59.16962123636579]
本稿では,Prologベースの推論エンジンを新たに提案する。
我々は手作りのルールを、ニューラルネットワークモデリング、ガイド付き生成、半密検索の組み合わせで置き換える。
我々の実装であるNELLIEは、完全に解釈可能なエンドツーエンドの基底QAを示す最初のシステムである。
論文 参考訳(メタデータ) (2022-09-16T00:54:44Z) - ExSum: From Local Explanations to Model Understanding [6.23934576145261]
ブラックボックスモデルの動作メカニズムを理解するために,解釈可能性法を開発した。
この目標をフルフィルするには、これらのメソッドによって生成された説明が正しいことと、人々が容易に確実に理解できることの両方が必要である。
本稿では,モデル理解の定量化のための数学的枠組みである説明要約(ExSum)を紹介する。
論文 参考訳(メタデータ) (2022-04-30T02:07:20Z) - Generalizable Neuro-symbolic Systems for Commonsense Question Answering [67.72218865519493]
この章では、言語理解に適したニューロシンボリックモデルが、下流タスクにおけるドメインの一般化性と堅牢性を実現する方法について説明する。
ニューラルネットワークモデルと知識グラフを統合するための様々な方法について議論する。
論文 参考訳(メタデータ) (2022-01-17T06:13:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。