論文の概要: The Case Against Explainability
- arxiv url: http://arxiv.org/abs/2305.12167v1
- Date: Sat, 20 May 2023 10:56:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 00:06:49.154893
- Title: The Case Against Explainability
- Title(参考訳): 説明責任に対する訴訟
- Authors: Hofit Wasserman Rozen, Niva Elkin-Koren, Ran Gilad-Bachrach
- Abstract要約: 法律における理性評価の役割を満足させるために,エンドユーザー説明責任の欠如を示す。
エンドユーザの説明責任は第4の機能に優れており、これは重大なリスクを生じさせる。
この研究は、規制当局と機械学習の実践者たちに、エンドユーザー説明可能性の幅広い追求を再考するよう呼びかける。
- 参考スコア(独自算出の注目度): 8.991619150027264
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As artificial intelligence (AI) becomes more prevalent there is a growing
demand from regulators to accompany decisions made by such systems with
explanations. However, a persistent gap exists between the need to execute a
meaningful right to explanation vs. the ability of Machine Learning systems to
deliver on such a legal requirement. The regulatory appeal towards "a right to
explanation" of AI systems can be attributed to the significant role of
explanations, part of the notion called reason-giving, in law. Therefore, in
this work we examine reason-giving's purposes in law to analyze whether reasons
provided by end-user Explainability can adequately fulfill them.
We find that reason-giving's legal purposes include: (a) making a better and
more just decision, (b) facilitating due-process, (c) authenticating human
agency, and (d) enhancing the decision makers' authority. Using this
methodology, we demonstrate end-user Explainabilty's inadequacy to fulfil
reason-giving's role in law, given reason-giving's functions rely on its impact
over a human decision maker. Thus, end-user Explainability fails, or is
unsuitable, to fulfil the first, second and third legal function. In contrast
we find that end-user Explainability excels in the fourth function, a quality
which raises serious risks considering recent end-user Explainability research
trends, Large Language Models' capabilities, and the ability to manipulate
end-users by both humans and machines. Hence, we suggest that in some cases the
right to explanation of AI systems could bring more harm than good to end
users. Accordingly, this study carries some important policy ramifications, as
it calls upon regulators and Machine Learning practitioners to reconsider the
widespread pursuit of end-user Explainability and a right to explanation of AI
systems.
- Abstract(参考訳): 人工知能(AI)が普及するにつれ、規制当局から、このようなシステムによる意思決定に伴う説明を求める声が高まっている。
しかしながら、意味のある説明権を実行する必要性と、そのような法的要件を満たす機械学習システムの能力との間には、永続的なギャップが存在する。
AIシステムの「説明の権利」に対する規制上の訴えは、法律における理性評価という概念の一部として、説明の重要な役割に起因している可能性がある。
そこで本研究では,エンドユーザー説明可能性が提供する理由が十分に満たせるかどうかを分析するため,法律上の理性提供の目的について検討する。
合理化の法的目的には以下のものがある。
(a)より良く、より単純な決定をする
b) デュー処理を容易にすること
(c)人間機関の認証、及び
(d)意思決定者の権限を強化すること。
この手法を用いて,理性提供の機能が人間の意思決定者に与える影響に依存することを考慮し,法における理性提供の役割を補うためのエンドユーザーの説明責任の不備を実証する。
したがって、エンドユーザー説明責任は第一、第二、第三の法的機能を満たすのに失敗する。
対照的に、エンドユーザー説明可能性は第4の機能に優れており、最近のエンドユーザー説明可能性の研究動向、大規模言語モデルの能力、人間と機械の両方でエンドユーザーを操作できる能力を考えると、深刻なリスクが生じる。
したがって、いくつかのケースでは、AIシステムを説明する権利はエンドユーザにとって良いものよりも害をもたらす可能性があると提案する。
そのため、この研究は、規制当局や機械学習の実践者たちに、エンドユーザー説明可能性の広汎な追求とAIシステムの説明権の再考を求めるなど、いくつかの重要な政策上の影響をもたらす。
関連論文リスト
- Contrastive Explanations That Anticipate Human Misconceptions Can Improve Human Decision-Making Skills [24.04643864795939]
人々の意思決定能力は、意思決定支援にAIに頼ると、しばしば改善に失敗する。
ほとんどのAIシステムは、AIの決定を正当化する一方的な説明を提供するが、ユーザーの思考を考慮しない。
我々は、AIの選択と予測された、おそらく人間の選択との違いを説明する、人間中心のコントラスト的な説明を生成するためのフレームワークを紹介します。
論文 参考訳(メタデータ) (2024-10-05T18:21:04Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - In Search of Verifiability: Explanations Rarely Enable Complementary
Performance in AI-Advised Decision Making [25.18203172421461]
説明は、人間の意思決定者がAIの予測の正しさを検証できる範囲でのみ有用である、と我々は主張する。
また、補完性能の目的と適切な依存度を比較し、後者を結果段階と戦略段階の信頼度の概念に分解する。
論文 参考訳(メタデータ) (2023-05-12T18:28:04Z) - Understanding the Role of Human Intuition on Reliance in Human-AI
Decision-Making with Explanations [44.01143305912054]
意思決定者の直感がAI予測と説明の使用に与える影響について検討する。
以上の結果から,AIの予測と説明に関する3種類の直観が明らかになった。
これらの経路を用いて、なぜ機能に基づく説明が参加者の決定結果を改善しなかったのかを説明し、AIへの依存度を高めた。
論文 参考訳(メタデータ) (2023-01-18T01:33:50Z) - Rethinking Explainability as a Dialogue: A Practitioner's Perspective [57.87089539718344]
医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
論文 参考訳(メタデータ) (2022-02-03T22:17:21Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Argumentation-based Agents that Explain their Decisions [0.0]
我々は,BDI(Beliefs-Desires-Intentions)エージェントの拡張モデルが,それらの推論に関する説明を生成できることに焦点をあてる。
我々の提案は議論理論に基づいており、エージェントが決定を下す理由を表現するために議論を用いる。
部分的説明と完全説明の2つのタイプを提案する。
論文 参考訳(メタデータ) (2020-09-13T02:08:10Z) - Flexible and Context-Specific AI Explainability: A Multidisciplinary
Approach [0.8388908302793014]
機械学習アルゴリズムは、内部の動作、結果、失敗の原因をユーザ、規制当局、市民に説明できなければならない。
本稿では、ある文脈における「正しい」説明可能性のレベルを定義するための枠組みを提案する。
我々は7種類のコストを特定し、社会的な利益がコストを超える場合にのみ、説明が社会的に有用であることを強調した。
論文 参考訳(メタデータ) (2020-03-13T09:12:06Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。