論文の概要: Post-Hoc Explanations Fail to Achieve their Purpose in Adversarial
Contexts
- arxiv url: http://arxiv.org/abs/2201.10295v1
- Date: Tue, 25 Jan 2022 13:12:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-26 14:29:41.086384
- Title: Post-Hoc Explanations Fail to Achieve their Purpose in Adversarial
Contexts
- Title(参考訳): 敵対的文脈における目的達成のためのポストホック説明
- Authors: Sebastian Bordt, Mich\`ele Finck, Eric Raidl, Ulrike von Luxburg
- Abstract要約: 既存の計画された法律は、機械学習アルゴリズムに関する情報を提供するための様々な義務を規定している。
多くの研究者がこの目的のためにポストホックな説明アルゴリズムを使うことを提案する。
法則の目的を達成するには,ポストホックな説明アルゴリズムが適さないことを示す。
- 参考スコア(独自算出の注目度): 12.552080951754963
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing and planned legislation stipulates various obligations to provide
information about machine learning algorithms and their functioning, often
interpreted as obligations to "explain". Many researchers suggest using
post-hoc explanation algorithms for this purpose. In this paper, we combine
legal, philosophical and technical arguments to show that post-hoc explanation
algorithms are unsuitable to achieve the law's objectives. Indeed, most
situations where explanations are requested are adversarial, meaning that the
explanation provider and receiver have opposing interests and incentives, so
that the provider might manipulate the explanation for her own ends. We show
that this fundamental conflict cannot be resolved because of the high degree of
ambiguity of post-hoc explanations in realistic application scenarios. As a
consequence, post-hoc explanation algorithms are unsuitable to achieve the
transparency objectives inherent to the legal norms. Instead, there is a need
to more explicitly discuss the objectives underlying "explainability"
obligations as these can often be better achieved through other mechanisms.
There is an urgent need for a more open and honest discussion regarding the
potential and limitations of post-hoc explanations in adversarial contexts, in
particular in light of the current negotiations about the European Union's
draft Artificial Intelligence Act.
- Abstract(参考訳): 既存の計画された法律は、機械学習アルゴリズムとその機能に関する情報を提供するための様々な義務を規定しており、しばしば「説明」の義務と解釈される。
多くの研究者がこの目的のためにポストホックな説明アルゴリズムを使うことを提案する。
本稿では,法律の目的を達成するにはポストホックな説明アルゴリズムが適さないことを示すために,法的,哲学的,技術的議論を組み合わせる。
実際、説明を求めるほとんどの状況は逆境であり、つまり、説明提供者と受信者が反対の関心とインセンティブを持っているため、提供者が自身の目的のために説明を操作することができる。
現実のアプリケーションシナリオにおけるポストホックな説明の曖昧さが高いため、この根本的な衝突は解決できないことを示す。
その結果、ポストホックな説明アルゴリズムは、法規範に固有の透明性目的を達成するには適していない。
その代わりに、"説明可能性"の義務の根底にある目的をより明確に議論する必要がある。
反体制的な文脈におけるポストホックな説明の可能性と限界、特に欧州連合(eu)の人工知能計画に関する現在の交渉に照らして、よりオープンで正直な議論が必要である。
関連論文リスト
- Few-shot Policy (de)composition in Conversational Question Answering [54.259440408606515]
本稿では,大規模言語モデル(LLM)を用いて数ショット設定でポリシーコンプライアンスを検出するニューラルシンボリックフレームワークを提案する。
提案手法は,回答すべきサブクエストを抽出し,文脈情報から真理値を割り当て,与えられたポリシーから論理文の集合を明示的に生成することで,政策コンプライアンスに関する会話に対して健全な理由を示す。
本手法は,PCDおよび会話機械読解ベンチマークであるShARCに適用し,タスク固有の微調整を伴わずに競合性能を示す。
論文 参考訳(メタデータ) (2025-01-20T08:40:15Z) - The explanation dialogues: an expert focus study to understand requirements towards explanations within the GDPR [47.06917254695738]
我々は、XAIに対する法的専門家や実践者の期待、推論、理解を明らかにするための専門的な研究である説明対話(Explaination Dialogues)を提示する。
調査はオンラインアンケートとフォローアップインタビューで構成されており、クレジットドメインのユースケースを中心に行われている。
提示された説明は、情報を理解して欠くことは困難であり、データコントローラと主題の異なる関心事から生じる問題について議論する。
論文 参考訳(メタデータ) (2025-01-09T15:50:02Z) - Explanation Hacking: The perils of algorithmic recourse [2.967024581564439]
我々は、リコメンデーションの説明がいくつかの概念的な落とし穴に直面しており、問題のある説明ハッキングにつながると論じている。
代替として、AI決定の説明は理解を目的とすべきである、と我々は主張する。
論文 参考訳(メタデータ) (2024-03-22T12:49:28Z) - FaithLM: Towards Faithful Explanations for Large Language Models [67.29893340289779]
大きな言語モデル(LLM)は、内部知識と推論能力を活用することで複雑なタスクに対処するのに熟練している。
これらのモデルのブラックボックスの性質は、意思決定プロセスを説明するタスクを複雑にしている。
自然言語 (NL) による LLM の決定を説明するために FaithLM を紹介した。
論文 参考訳(メタデータ) (2024-02-07T09:09:14Z) - Clash of the Explainers: Argumentation for Context-Appropriate
Explanations [6.8285745209093145]
特定のコンテキストに最も適したアプローチはひとつもありません。
AIの説明容易性を効果的にするためには、説明とそれらがどのように提示されるかは、説明を受けるステークホルダーに向けられる必要がある。
本稿では、関係する利害関係者の精神モデルと、多説明者による議論問題を解決する理性コンポーネントと、利害関係者に適切に説明すべきAIモデルとからなるモジュラー推論システムを提案する。
論文 参考訳(メタデータ) (2023-12-12T09:52:30Z) - HOP, UNION, GENERATE: Explainable Multi-hop Reasoning without Rationale
Supervision [118.0818807474809]
本研究は、合理的な監督なしに説明可能なマルチホップQAシステムを訓練するための原則的確率論的アプローチを提案する。
提案手法は,集合としての有理を明示的にモデル化し,文書と文間の相互作用を文書内で捉えることによって,マルチホップ推論を行う。
論文 参考訳(メタデータ) (2023-05-23T16:53:49Z) - Disagreement amongst counterfactual explanations: How transparency can
be deceptive [0.0]
偽物の説明は、説明可能な人工知能技術としてますます使われている。
すべてのアルゴリズムが同じインスタンスに対して一様説明を生成するわけではない。
悪意のあるエージェントがこの多様性を使って不公平な機械学習モデルに見合うと、倫理的な問題が生じる。
論文 参考訳(メタデータ) (2023-04-25T09:15:37Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Making Things Explainable vs Explaining: Requirements and Challenges
under the GDPR [2.578242050187029]
ExplanatorY AI(YAI)はXAI上に構築され、説明可能な情報の収集と整理を目的としている。
本稿では,自動意思決定システム(ADM)について,説明空間上の適切な経路を特定するための説明を生成する問題について述べる。
論文 参考訳(メタデータ) (2021-10-02T08:48:47Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - Algorithmic Recourse: from Counterfactual Explanations to Interventions [16.9979815165902]
反事実的な説明は、どこに着く必要があるのかを個人に知らせるが、そこにたどり着くには至らない、と我々は主張する。
代わりに、最小限の介入を通して、最も近い対実的な説明から言い換えへのパラダイムシフトを提案する。
論文 参考訳(メタデータ) (2020-02-14T22:49:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。