論文の概要: Post-hoc Interpretability for Neural NLP: A Survey
- arxiv url: http://arxiv.org/abs/2108.04840v1
- Date: Tue, 10 Aug 2021 18:00:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-12 21:46:39.784890
- Title: Post-hoc Interpretability for Neural NLP: A Survey
- Title(参考訳): ニューラルNLPのポストホック解釈可能性:サーベイ
- Authors: Andreas Madsen, Siva Reddy, Sarath Chandar
- Abstract要約: 本稿では,解釈可能性法がどのように説明を伝達するかを分類する。
この調査は、モデル学習後に説明を提供するポストホック手法に焦点を当てている。
このクラスのメソッドに共通する関心事は、モデルが正確に反映されているかどうかである。
- 参考スコア(独自算出の注目度): 11.760456990648327
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Natural Language Processing (NLP) models have become increasingly more
complex and widespread. With recent developments in neural networks, a growing
concern is whether it is responsible to use these models. Concerns such as
safety and ethics can be partially addressed by providing explanations.
Furthermore, when models do fail, providing explanations is paramount for
accountability purposes. To this end, interpretability serves to provide these
explanations in terms that are understandable to humans. Central to what is
understandable is how explanations are communicated. Therefore, this survey
provides a categorization of how recent interpretability methods communicate
explanations and discusses the methods in depth. Furthermore, the survey
focuses on post-hoc methods, which provide explanations after a model is
learned and generally model-agnostic. A common concern for this class of
methods is whether they accurately reflect the model. Hence, how these post-hoc
methods are evaluated is discussed throughout the paper.
- Abstract(参考訳): 自然言語処理(nlp)モデルはますます複雑で広くなってきている。
近年のニューラルネットワークの発展に伴い、これらのモデルの使用に責任があるかどうかの懸念が高まっている。
安全や倫理といった懸念は、説明を提供することによって部分的に対処できる。
さらに、モデルが失敗した場合、説明を提供するのが説明責任の目的である。
この目的のために、解釈可能性は、人間にとって理解可能な言葉でこれらの説明を提供するのに役立つ。
理解可能なことの中心は、説明の伝達方法です。
そこで本研究では,最近の解釈可能性法がどのように説明を伝達するかを分類し,その方法を深く論じる。
さらに,モデルが学習され,一般にモデル非依存になった後に説明を提供するポストホック法にも注目した。
このタイプのメソッドに対する共通の懸念は、モデルを正確に反映するかどうかである。
そこで本稿では,これらのポストホック法の評価方法について論じる。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Testing the effectiveness of saliency-based explainability in NLP using
randomized survey-based experiments [0.6091702876917281]
Explainable AIにおける多くの研究は、NLPモデルの動作と予測に関する人間の洞察を与える説明方法を考案することを目的としている。
自然に人間の傾向やバイアスは、人間の説明を理解するのに役立ちます。
自然言語処理におけるサリエンシに基づくポストホック説明可能性手法の有効性を理解するために,ランダム化されたサーベイベース実験を設計した。
論文 参考訳(メタデータ) (2022-11-25T08:49:01Z) - On the Robustness of Explanations of Deep Neural Network Models: A
Survey [14.940679892694089]
本稿では,Deep Neural Network(DNN)モデルの説明を研究・理解・攻撃・防衛する手法の総合的な調査を行う。
また,説明手法の評価や属性攻撃,防衛手法の詳細な検討を行う。
論文 参考訳(メタデータ) (2022-11-09T10:14:21Z) - Towards Faithful Model Explanation in NLP: A Survey [48.690624266879155]
エンドツーエンドのニューラルネットワーク処理(NLP)モデルを理解するのは非常に難しい。
モデル説明の一側面は忠実さであり、すなわち、説明はモデルの予測の背後にある推論過程を正確に表現すべきである。
我々は,NLPにおける110以上のモデル説明法を忠実度レンズを用いてレビューした。
論文 参考訳(メタデータ) (2022-09-22T21:40:51Z) - NELLIE: A Neuro-Symbolic Inference Engine for Grounded, Compositional, and Explainable Reasoning [59.16962123636579]
本稿では,Prologベースの推論エンジンを新たに提案する。
我々は手作りのルールを、ニューラルネットワークモデリング、ガイド付き生成、半密検索の組み合わせで置き換える。
我々の実装であるNELLIEは、完全に解釈可能なエンドツーエンドの基底QAを示す最初のシステムである。
論文 参考訳(メタデータ) (2022-09-16T00:54:44Z) - ExSum: From Local Explanations to Model Understanding [6.23934576145261]
ブラックボックスモデルの動作メカニズムを理解するために,解釈可能性法を開発した。
この目標をフルフィルするには、これらのメソッドによって生成された説明が正しいことと、人々が容易に確実に理解できることの両方が必要である。
本稿では,モデル理解の定量化のための数学的枠組みである説明要約(ExSum)を紹介する。
論文 参考訳(メタデータ) (2022-04-30T02:07:20Z) - Generalizable Neuro-symbolic Systems for Commonsense Question Answering [67.72218865519493]
この章では、言語理解に適したニューロシンボリックモデルが、下流タスクにおけるドメインの一般化性と堅牢性を実現する方法について説明する。
ニューラルネットワークモデルと知識グラフを統合するための様々な方法について議論する。
論文 参考訳(メタデータ) (2022-01-17T06:13:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。