論文の概要: Explaining Natural Language Processing Classifiers with Occlusion and
Language Modeling
- arxiv url: http://arxiv.org/abs/2101.11889v1
- Date: Thu, 28 Jan 2021 09:44:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-01-31 22:28:21.387842
- Title: Explaining Natural Language Processing Classifiers with Occlusion and
Language Modeling
- Title(参考訳): OcclusionとLanguage Modelingによる自然言語処理分類器の説明
- Authors: David Harbecke
- Abstract要約: 自然言語処理分類のための新しい説明手法 OLM を提案する。
OLMは理論的に健全で理解しやすい説明を与える。
我々は,説明法の理論にいくつかの貢献をしている。
- 参考スコア(独自算出の注目度): 4.9342793303029975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks are powerful statistical learners. However, their
predictions do not come with an explanation of their process. To analyze these
models, explanation methods are being developed. We present a novel explanation
method, called OLM, for natural language processing classifiers. This method
combines occlusion and language modeling, which are techniques central to
explainability and NLP, respectively. OLM gives explanations that are
theoretically sound and easy to understand.
We make several contributions to the theory of explanation methods. Axioms
for explanation methods are an interesting theoretical concept to explore their
basics and deduce methods. We introduce a new axiom, give its intuition and
show it contradicts another existing axiom. Additionally, we point out
theoretical difficulties of existing gradient-based and some occlusion-based
explanation methods in natural language processing. We provide an extensive
argument why evaluation of explanation methods is difficult. We compare OLM to
other explanation methods and underline its uniqueness experimentally. Finally,
we investigate corner cases of OLM and discuss its validity and possible
improvements.
- Abstract(参考訳): ディープニューラルネットワークは強力な統計学習者です。
しかし、彼らの予測は、その過程の説明を伴わない。
これらのモデルを分析するために、説明手法が開発されている。
本稿では,自然言語処理分類器のための新しい説明法olmを提案する。
この方法は、それぞれ説明可能性とNLPの中心的な技術である閉塞と言語モデリングを結合する。
OLMは理論的に健全で理解しやすい説明を与える。
私達は説明方法の理論にいくつかの貢献をします。
説明手法の公理は、基礎を探求し、メソッドを推論する興味深い理論概念である。
我々は新しい公理を導入し、直観を与え、既存の公理と矛盾することを示す。
さらに、自然言語処理における既存のグラデーションベースおよびオブクルージョンベースの説明方法の理論的困難さを指摘する。
説明方法の評価が難しい理由について,広範な議論を行う。
olmを他の説明法と比較し,その一意性を実験的に強調する。
最後にolmのコーナーケースを調査し,その妥当性と改善の可能性について考察する。
関連論文リスト
- Towards More Faithful Natural Language Explanation Using Multi-Level
Contrastive Learning in VQA [7.141288053123662]
視覚的質問応答(VQA-NLE)における自然言語の説明は,ブラックボックスシステムに対するユーザの信頼を高めるために,自然言語文を生成することによって,モデルの意思決定プロセスを説明することを目的としている。
既存のポストホックな説明は、人間の論理的推論と常に一致している訳ではなく、1) 誘惑的不満足な説明は、生成した説明が論理的に答えに繋がらないこと、2) 現実的不整合性、2) 画像上の事実を考慮せずに解答の反事実的説明を偽示すること、3) 意味的摂動の過敏性、モデルは、小さな摂動によって引き起こされる意味的変化を認識できないこと、である。
論文 参考訳(メタデータ) (2023-12-21T05:51:55Z) - Abductive Commonsense Reasoning Exploiting Mutually Exclusive
Explanations [118.0818807474809]
帰納的推論は、イベントのもっともらしい説明を見つけることを目的としている。
自然言語処理における帰納的推論のための既存のアプローチは、しばしば監督のために手動で生成されたアノテーションに依存している。
この研究は、ある文脈に対して、説明のサブセットのみが正しいという事実を活用する、帰納的コモンセンス推論のアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:35:10Z) - MaNtLE: Model-agnostic Natural Language Explainer [9.43206883360088]
モデルに依存しない自然言語説明器であるMaNtLEを導入し、複数の分類器の予測を解析する。
MaNtLEは、何千もの合成分類タスクでマルチタスクトレーニングを使用して、忠実な説明を生成する。
シミュレーションユーザスタディでは、平均して、MaNtLEの生成した説明は、LIMEやAnchorsの説明に比べて少なくとも11%忠実であることが示されている。
論文 参考訳(メタデータ) (2023-05-22T12:58:06Z) - NELLIE: A Neuro-Symbolic Inference Engine for Grounded, Compositional, and Explainable Reasoning [59.16962123636579]
本稿では,Prologベースの推論エンジンを新たに提案する。
我々は手作りのルールを、ニューラルネットワークモデリング、ガイド付き生成、半密検索の組み合わせで置き換える。
我々の実装であるNELLIEは、完全に解釈可能なエンドツーエンドの基底QAを示す最初のシステムである。
論文 参考訳(メタデータ) (2022-09-16T00:54:44Z) - Learning to Scaffold: Optimizing Model Explanations for Teaching [74.25464914078826]
我々は3つの自然言語処理とコンピュータビジョンタスクのモデルを訓練する。
筆者らは,本フレームワークで抽出した説明文を学習した学生が,従来の手法よりもはるかに効果的に教師をシミュレートできることを発見した。
論文 参考訳(メタデータ) (2022-04-22T16:43:39Z) - Do Explanations Explain? Model Knows Best [39.86131552976105]
入力特徴がニューラルネットワークの出力に寄与するミステリーである。
本稿では,ニューラルネットワークモデル自体を用いた説明評価フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-04T12:39:29Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Explaining by Removing: A Unified Framework for Model Explanation [14.50261153230204]
削除に基づく説明は、各特徴の影響を定量化するための特徴除去をシミュレートする原則に基づいている。
1) メソッドが特徴を除去する方法,2) メソッドが説明するモデル動作,3) メソッドがそれぞれの特徴の影響を要約する方法,の3つの側面に沿って各メソッドを特徴付けるフレームワークを開発する。
新たに理解された説明手法のクラスは、説明可能性の文献にほとんど見落とされたツールを用いて、豊富なつながりを持つ。
論文 参考訳(メタデータ) (2020-11-21T00:47:48Z) - Towards Interpretable Natural Language Understanding with Explanations
as Latent Variables [146.83882632854485]
そこで本研究では,人間に注釈付き説明文の小さなセットだけを必要とする自然言語理解の枠組みを構築した。
我々のフレームワークは、ニューラルネットワークの基本的な推論過程をモデル化する潜在変数として、自然言語の説明を扱う。
論文 参考訳(メタデータ) (2020-10-24T02:05:56Z) - Evaluating Explainable AI: Which Algorithmic Explanations Help Users
Predict Model Behavior? [97.77183117452235]
我々は、モデル解釈性に対するアルゴリズム的説明の影響を分離するために、人体テストを実施している。
方法の有効性の明確な証拠はごく少数にみえる。
以上の結果から,説明がシミュラビリティにどのように影響するかの信頼性と包括的評価が得られた。
論文 参考訳(メタデータ) (2020-05-04T20:35:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。