論文の概要: The Conflict Between Explainable and Accountable Decision-Making
Algorithms
- arxiv url: http://arxiv.org/abs/2205.05306v1
- Date: Wed, 11 May 2022 07:19:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 05:00:46.271874
- Title: The Conflict Between Explainable and Accountable Decision-Making
Algorithms
- Title(参考訳): 説明可能な意思決定アルゴリズムと説明可能な意思決定アルゴリズムの対立
- Authors: Gabriel Lima, Nina Grgi\'c-Hla\v{c}a, Jin Keun Jeong, Meeyoung Cha
- Abstract要約: 意思決定アルゴリズムは、誰が医療プログラムに登録され、雇用されるべきかといった重要な決定に使われています。
XAIイニシアチブは、法的要件に準拠し、信頼を促進し、説明責任を維持するために、アルゴリズムを説明可能にすることを目的としている。
本稿では,自律型AIシステムによって引き起こされる責任問題の解決に,説明可能性がどの程度役立つのかを問う。
- 参考スコア(独自算出の注目度): 10.64167691614925
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decision-making algorithms are being used in important decisions, such as who
should be enrolled in health care programs and be hired. Even though these
systems are currently deployed in high-stakes scenarios, many of them cannot
explain their decisions. This limitation has prompted the Explainable
Artificial Intelligence (XAI) initiative, which aims to make algorithms
explainable to comply with legal requirements, promote trust, and maintain
accountability. This paper questions whether and to what extent explainability
can help solve the responsibility issues posed by autonomous AI systems. We
suggest that XAI systems that provide post-hoc explanations could be seen as
blameworthy agents, obscuring the responsibility of developers in the
decision-making process. Furthermore, we argue that XAI could result in
incorrect attributions of responsibility to vulnerable stakeholders, such as
those who are subjected to algorithmic decisions (i.e., patients), due to a
misguided perception that they have control over explainable algorithms. This
conflict between explainability and accountability can be exacerbated if
designers choose to use algorithms and patients as moral and legal scapegoats.
We conclude with a set of recommendations for how to approach this tension in
the socio-technical process of algorithmic decision-making and a defense of
hard regulation to prevent designers from escaping responsibility.
- Abstract(参考訳): 意思決定アルゴリズムは、誰が医療プログラムに登録され、雇用されるべきかといった重要な決定に使われています。
これらのシステムは、現在高リスクシナリオにデプロイされているが、多くは彼らの決定を説明することができない。
この制限により、説明可能な人工知能(XAI)イニシアチブは、法的要件に準拠し、信頼を促進し、説明責任を維持するためにアルゴリズムを説明できるようにする。
本稿では,自律型AIシステムによって引き起こされる責任問題の解決に,説明可能性がどの程度役立つのかを問う。
ポストホックな説明を提供するxaiシステムは非難に値するエージェントと見なすことができ、意思決定プロセスにおいて開発者の責任を負うことができると提案する。
さらに,xaiは,説明可能なアルゴリズムを制御しているという誤った認識により,アルゴリズム的意思決定(すなわち患者)を受けるような,脆弱な利害関係者に対する責任の帰属を誤ったものにする可能性がある。
この説明可能性と説明責任の対立は、デザイナーがアルゴリズムと患者を道徳的および法的スケープゴートとして使用する場合、さらに悪化する可能性がある。
我々は,アルゴリズムによる意思決定の社会技術的プロセスにおいて,この緊張にどのようにアプローチするか,デザイナーが責任を負うことを防ぐための厳しい規制を守るための一連の勧告で結論付けた。
- 全文 参考訳へのリンク
関連論文リスト
- A Human-Centric Perspective on Fairness and Transparency in Algorithmic
Decision-Making [0.0]
自動意思決定システム(ADS)は、連続的な意思決定にますます利用されている。
非透明なシステムは、健全性の評価と校正が難しいため、不公平な結果をもたらす傾向にある。
私は博士論文を通じて以下の3つの主要な貢献をしたいと考えています。
論文 参考訳(メタデータ) (2022-04-29T18:31:04Z) - Justice in Misinformation Detection Systems: An Analysis of Algorithms,
Stakeholders, and Potential Harms [2.5372245630249632]
誤情報検出パイプラインにおける3つのアルゴリズム段階の利害関係者に対して、不正がいかに有効であるかを示す。
この枠組みは、研究者、政策立案者、そして実践者がアルゴリズムの誤情報検出に関連する潜在的な害やリスクを判断するのに役立つだろう。
論文 参考訳(メタデータ) (2022-04-28T15:31:13Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Explaining Black-Box Algorithms Using Probabilistic Contrastive
Counterfactuals [7.727206277914709]
ブラックボックス決定システムを説明するための因果性に基づく原則的アプローチを提案する。
本稿では,変数の直接的および間接的影響が,アルゴリズムによる決定に与える影響を定量的に示す。
このような反事実は,アルゴリズムの決定に負の影響を受ける個人に対して,どのように行動可能なリコースを提供できるかを示す。
論文 参考訳(メタデータ) (2021-03-22T16:20:21Z) - CoreDiag: Eliminating Redundancy in Constraint Sets [68.8204255655161]
最小コア(最小非冗長制約集合)の決定に利用できる新しいアルゴリズムを提案する。
このアルゴリズムは、冗長性の度合いが高い分散知識工学シナリオにおいて特に有用である。
本手法の適用可能性を示すために, 商業的構成知識ベースを用いた実証的研究を実施した。
論文 参考訳(メタデータ) (2021-02-24T09:16:10Z) - Decision Rule Elicitation for Domain Adaptation [93.02675868486932]
ヒトインザループ機械学習は、専門家からラベルを引き出すために人工知能(AI)で広く使用されています。
この作業では、専門家が意思決定を説明する決定ルールを作成できるようにします。
決定規則の適用はアルゴリズムのドメイン適応を改善し、専門家の知識をAIモデルに広めるのに役立つことを示す。
論文 参考訳(メタデータ) (2021-02-23T08:07:22Z) - Reviewable Automated Decision-Making: A Framework for Accountable
Algorithmic Systems [1.7403133838762448]
本稿では,adm(automated and algorithmic decision-making)のアカウンタビリティ向上のためのフレームワークとして,reviewabilityを提案する。
我々は、ADMを人間と技術の両方の要素を含む社会技術的プロセスであると理解し、決定が下される前に開始し、決定そのものを超えて拡張する。
我々は、人間の意思決定をレビューする行政法のアプローチに基づいたレビュー可能性枠組みは、admに対してより包括的かつ法的に関連のある説明責任の形式を進めるための実用的な方法であると主張する。
論文 参考訳(メタデータ) (2021-01-26T18:15:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。