論文の概要: Semantics and explanation: why counterfactual explanations produce
adversarial examples in deep neural networks
- arxiv url: http://arxiv.org/abs/2012.10076v1
- Date: Fri, 18 Dec 2020 07:04:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 18:20:30.331455
- Title: Semantics and explanation: why counterfactual explanations produce
adversarial examples in deep neural networks
- Title(参考訳): 意味論と説明:なぜ反事実的説明がディープニューラルネットワークの逆例を生み出すのか
- Authors: Kieran Browne, Ben Swift
- Abstract要約: 説明可能なAIに関する最近の論文は、対実的な説明のモードを説得力あるものにしている。
反事実的説明はいくつかのケースでは極めて効果的であるように見えるが、正式には敵の例と等価である。
この2つの手順が公式に同値であるならば、反事実的な説明と敵対的な例の間に明らかな説明分割にはどのような意味があるのでしょうか?
このパラドックスは、反事実表現の意味論に重きを置くことで解決する。
- 参考スコア(独自算出の注目度): 15.102346715690759
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent papers in explainable AI have made a compelling case for
counterfactual modes of explanation. While counterfactual explanations appear
to be extremely effective in some instances, they are formally equivalent to
adversarial examples. This presents an apparent paradox for explainability
researchers: if these two procedures are formally equivalent, what accounts for
the explanatory divide apparent between counterfactual explanations and
adversarial examples? We resolve this paradox by placing emphasis back on the
semantics of counterfactual expressions. Producing satisfactory explanations
for deep learning systems will require that we find ways to interpret the
semantics of hidden layer representations in deep neural networks.
- Abstract(参考訳): 説明可能なAIに関する最近の論文は、対実的な説明のモードを説得力あるものにしている。
反事実的説明はいくつかのケースでは極めて効果的であるように見えるが、正式には敵の例と等価である。
これは説明可能性研究者にとって明らかなパラドックスを示している: もしこの2つの手続きが形式的に等価であるなら、反事実的説明と敵対的な例の間で明らかな説明的分割の説明は何か?
このパラドックスを反事実表現のセマンティクスに重きを置くことで解決する。
ディープラーニングシステムに十分な説明を提供するためには、ディープニューラルネットワークに隠された層表現の意味を解釈する方法を見つける必要がある。
関連論文リスト
- Dissenting Explanations: Leveraging Disagreement to Reduce Model Overreliance [4.962171160815189]
本稿では, 矛盾する説明, 付随する説明と矛盾する予測について紹介する。
まず、モデル乗法の設定における不一致の説明の利点を考察する。
本研究では,不一致説明が全体の精度を低下させることなく,モデル予測の過度な信頼性を低下させることを実証する。
論文 参考訳(メタデータ) (2023-07-14T21:27:00Z) - Abductive Commonsense Reasoning Exploiting Mutually Exclusive
Explanations [118.0818807474809]
帰納的推論は、イベントのもっともらしい説明を見つけることを目的としている。
自然言語処理における帰納的推論のための既存のアプローチは、しばしば監督のために手動で生成されたアノテーションに依存している。
この研究は、ある文脈に対して、説明のサブセットのみが正しいという事実を活用する、帰納的コモンセンス推論のアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:35:10Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Explanatory Paradigms in Neural Networks [18.32369721322249]
本稿では、推論に基づく質問に対する解答として説明を考慮し、ニューラルネットワークにおける説明可能性の研究に飛躍的に拡張する。
これらの質問に対する回答は, それぞれ, 相関, 反事実, 対照的な説明である。
この用語は、訓練されたニューラルネットワークが決定を下した後に、説明的手法が$P$を説明したとき、ホック後の説明可能性の特定のケースを指す。
論文 参考訳(メタデータ) (2022-02-24T00:22:11Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Towards Relatable Explainable AI with the Perceptual Process [5.581885362337179]
我々は、説明は、他の概念、仮説、および関連性により関連していなければならないと論じる。
認知心理学に触発されて、相対論的説明可能なAIのためのXAI知覚処理フレームワークとRexNetモデルを提案する。
論文 参考訳(メタデータ) (2021-12-28T05:48:53Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Bayesian Interpolants as Explanations for Neural Inferences [0.0]
クレイグ補間子の概念は、論理的推論から統計的推論に適応し、ニューラルネットワークによる推論を説明するのに用いられる。
この方法は簡潔で理解しやすく正確な説明を生成する。
論文 参考訳(メタデータ) (2020-04-08T18:45:06Z) - Adequate and fair explanations [12.33259114006129]
我々は厳密な論理的基礎を持つ第2の正確な説明に焦点をあてる。
反事実的説明では、完全な説明を提供するために必要な仮定の多くは暗黙的に残されている。
局所的な部分的な説明から完全な局所的な説明へと、そしてグローバルな説明へと移行する方法を探求する。
論文 参考訳(メタデータ) (2020-01-21T14:42:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。