論文の概要: Post-Hoc Explanations Fail to Achieve their Purpose in Adversarial
Contexts
- arxiv url: http://arxiv.org/abs/2201.10295v1
- Date: Tue, 25 Jan 2022 13:12:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-26 14:29:41.086384
- Title: Post-Hoc Explanations Fail to Achieve their Purpose in Adversarial
Contexts
- Title(参考訳): 敵対的文脈における目的達成のためのポストホック説明
- Authors: Sebastian Bordt, Mich\`ele Finck, Eric Raidl, Ulrike von Luxburg
- Abstract要約: 既存の計画された法律は、機械学習アルゴリズムに関する情報を提供するための様々な義務を規定している。
多くの研究者がこの目的のためにポストホックな説明アルゴリズムを使うことを提案する。
法則の目的を達成するには,ポストホックな説明アルゴリズムが適さないことを示す。
- 参考スコア(独自算出の注目度): 12.552080951754963
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing and planned legislation stipulates various obligations to provide
information about machine learning algorithms and their functioning, often
interpreted as obligations to "explain". Many researchers suggest using
post-hoc explanation algorithms for this purpose. In this paper, we combine
legal, philosophical and technical arguments to show that post-hoc explanation
algorithms are unsuitable to achieve the law's objectives. Indeed, most
situations where explanations are requested are adversarial, meaning that the
explanation provider and receiver have opposing interests and incentives, so
that the provider might manipulate the explanation for her own ends. We show
that this fundamental conflict cannot be resolved because of the high degree of
ambiguity of post-hoc explanations in realistic application scenarios. As a
consequence, post-hoc explanation algorithms are unsuitable to achieve the
transparency objectives inherent to the legal norms. Instead, there is a need
to more explicitly discuss the objectives underlying "explainability"
obligations as these can often be better achieved through other mechanisms.
There is an urgent need for a more open and honest discussion regarding the
potential and limitations of post-hoc explanations in adversarial contexts, in
particular in light of the current negotiations about the European Union's
draft Artificial Intelligence Act.
- Abstract(参考訳): 既存の計画された法律は、機械学習アルゴリズムとその機能に関する情報を提供するための様々な義務を規定しており、しばしば「説明」の義務と解釈される。
多くの研究者がこの目的のためにポストホックな説明アルゴリズムを使うことを提案する。
本稿では,法律の目的を達成するにはポストホックな説明アルゴリズムが適さないことを示すために,法的,哲学的,技術的議論を組み合わせる。
実際、説明を求めるほとんどの状況は逆境であり、つまり、説明提供者と受信者が反対の関心とインセンティブを持っているため、提供者が自身の目的のために説明を操作することができる。
現実のアプリケーションシナリオにおけるポストホックな説明の曖昧さが高いため、この根本的な衝突は解決できないことを示す。
その結果、ポストホックな説明アルゴリズムは、法規範に固有の透明性目的を達成するには適していない。
その代わりに、"説明可能性"の義務の根底にある目的をより明確に議論する必要がある。
反体制的な文脈におけるポストホックな説明の可能性と限界、特に欧州連合(eu)の人工知能計画に関する現在の交渉に照らして、よりオープンで正直な議論が必要である。
関連論文リスト
- DELTA: Pre-train a Discriminative Encoder for Legal Case Retrieval via Structural Word Alignment [55.91429725404988]
判例検索のための識別モデルであるDELTAを紹介する。
我々は浅層デコーダを利用して情報ボトルネックを作り、表現能力の向上を目指しています。
本手法は, 判例検索において, 既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-27T10:40:14Z) - Explanation Hacking: The perils of algorithmic recourse [2.967024581564439]
我々は、リコメンデーションの説明がいくつかの概念的な落とし穴に直面しており、問題のある説明ハッキングにつながると論じている。
代替として、AI決定の説明は理解を目的とすべきである、と我々は主張する。
論文 参考訳(メタデータ) (2024-03-22T12:49:28Z) - FaithLM: Towards Faithful Explanations for Large Language Models [67.29893340289779]
大きな言語モデル(LLM)は、内部知識と推論能力を活用することで複雑なタスクに対処するのに熟練している。
これらのモデルのブラックボックスの性質は、意思決定プロセスを説明するタスクを複雑にしている。
自然言語 (NL) による LLM の決定を説明するために FaithLM を紹介した。
論文 参考訳(メタデータ) (2024-02-07T09:09:14Z) - Clash of the Explainers: Argumentation for Context-Appropriate
Explanations [6.8285745209093145]
特定のコンテキストに最も適したアプローチはひとつもありません。
AIの説明容易性を効果的にするためには、説明とそれらがどのように提示されるかは、説明を受けるステークホルダーに向けられる必要がある。
本稿では、関係する利害関係者の精神モデルと、多説明者による議論問題を解決する理性コンポーネントと、利害関係者に適切に説明すべきAIモデルとからなるモジュラー推論システムを提案する。
論文 参考訳(メタデータ) (2023-12-12T09:52:30Z) - HOP, UNION, GENERATE: Explainable Multi-hop Reasoning without Rationale
Supervision [118.0818807474809]
本研究は、合理的な監督なしに説明可能なマルチホップQAシステムを訓練するための原則的確率論的アプローチを提案する。
提案手法は,集合としての有理を明示的にモデル化し,文書と文間の相互作用を文書内で捉えることによって,マルチホップ推論を行う。
論文 参考訳(メタデータ) (2023-05-23T16:53:49Z) - Disagreement amongst counterfactual explanations: How transparency can
be deceptive [0.0]
偽物の説明は、説明可能な人工知能技術としてますます使われている。
すべてのアルゴリズムが同じインスタンスに対して一様説明を生成するわけではない。
悪意のあるエージェントがこの多様性を使って不公平な機械学習モデルに見合うと、倫理的な問題が生じる。
論文 参考訳(メタデータ) (2023-04-25T09:15:37Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Making Things Explainable vs Explaining: Requirements and Challenges
under the GDPR [2.578242050187029]
ExplanatorY AI(YAI)はXAI上に構築され、説明可能な情報の収集と整理を目的としている。
本稿では,自動意思決定システム(ADM)について,説明空間上の適切な経路を特定するための説明を生成する問題について述べる。
論文 参考訳(メタデータ) (2021-10-02T08:48:47Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - Aligning Faithful Interpretations with their Social Attribution [58.13152510843004]
モデル解釈が忠実であることの要件はあいまいで不完全であることに気付く。
因果的帰属(因果的帰属)と解釈(社会的帰属)に対する人間の行動の帰属(因果的帰属)の相違が問題であると認識する。
論文 参考訳(メタデータ) (2020-06-01T16:45:38Z) - Algorithmic Recourse: from Counterfactual Explanations to Interventions [16.9979815165902]
反事実的な説明は、どこに着く必要があるのかを個人に知らせるが、そこにたどり着くには至らない、と我々は主張する。
代わりに、最小限の介入を通して、最も近い対実的な説明から言い換えへのパラダイムシフトを提案する。
論文 参考訳(メタデータ) (2020-02-14T22:49:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。