論文の概要: The Conflict Between Explainable and Accountable Decision-Making
Algorithms
- arxiv url: http://arxiv.org/abs/2205.05306v1
- Date: Wed, 11 May 2022 07:19:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 05:00:46.271874
- Title: The Conflict Between Explainable and Accountable Decision-Making
Algorithms
- Title(参考訳): 説明可能な意思決定アルゴリズムと説明可能な意思決定アルゴリズムの対立
- Authors: Gabriel Lima, Nina Grgi\'c-Hla\v{c}a, Jin Keun Jeong, Meeyoung Cha
- Abstract要約: 意思決定アルゴリズムは、誰が医療プログラムに登録され、雇用されるべきかといった重要な決定に使われています。
XAIイニシアチブは、法的要件に準拠し、信頼を促進し、説明責任を維持するために、アルゴリズムを説明可能にすることを目的としている。
本稿では,自律型AIシステムによって引き起こされる責任問題の解決に,説明可能性がどの程度役立つのかを問う。
- 参考スコア(独自算出の注目度): 10.64167691614925
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decision-making algorithms are being used in important decisions, such as who
should be enrolled in health care programs and be hired. Even though these
systems are currently deployed in high-stakes scenarios, many of them cannot
explain their decisions. This limitation has prompted the Explainable
Artificial Intelligence (XAI) initiative, which aims to make algorithms
explainable to comply with legal requirements, promote trust, and maintain
accountability. This paper questions whether and to what extent explainability
can help solve the responsibility issues posed by autonomous AI systems. We
suggest that XAI systems that provide post-hoc explanations could be seen as
blameworthy agents, obscuring the responsibility of developers in the
decision-making process. Furthermore, we argue that XAI could result in
incorrect attributions of responsibility to vulnerable stakeholders, such as
those who are subjected to algorithmic decisions (i.e., patients), due to a
misguided perception that they have control over explainable algorithms. This
conflict between explainability and accountability can be exacerbated if
designers choose to use algorithms and patients as moral and legal scapegoats.
We conclude with a set of recommendations for how to approach this tension in
the socio-technical process of algorithmic decision-making and a defense of
hard regulation to prevent designers from escaping responsibility.
- Abstract(参考訳): 意思決定アルゴリズムは、誰が医療プログラムに登録され、雇用されるべきかといった重要な決定に使われています。
これらのシステムは、現在高リスクシナリオにデプロイされているが、多くは彼らの決定を説明することができない。
この制限により、説明可能な人工知能(XAI)イニシアチブは、法的要件に準拠し、信頼を促進し、説明責任を維持するためにアルゴリズムを説明できるようにする。
本稿では,自律型AIシステムによって引き起こされる責任問題の解決に,説明可能性がどの程度役立つのかを問う。
ポストホックな説明を提供するxaiシステムは非難に値するエージェントと見なすことができ、意思決定プロセスにおいて開発者の責任を負うことができると提案する。
さらに,xaiは,説明可能なアルゴリズムを制御しているという誤った認識により,アルゴリズム的意思決定(すなわち患者)を受けるような,脆弱な利害関係者に対する責任の帰属を誤ったものにする可能性がある。
この説明可能性と説明責任の対立は、デザイナーがアルゴリズムと患者を道徳的および法的スケープゴートとして使用する場合、さらに悪化する可能性がある。
我々は,アルゴリズムによる意思決定の社会技術的プロセスにおいて,この緊張にどのようにアプローチするか,デザイナーが責任を負うことを防ぐための厳しい規制を守るための一連の勧告で結論付けた。
関連論文リスト
- Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Assistive AI for Augmenting Human Decision-making [3.379906135388703]
この論文は、人間の監視を維持しながら、AIが意思決定の複雑なプロセスを支援する方法を示している。
私たちのフレームワークの中心は、プライバシ、説明責任、信頼性の原則です。
論文 参考訳(メタデータ) (2024-10-18T10:16:07Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Mathematical Algorithm Design for Deep Learning under Societal and
Judicial Constraints: The Algorithmic Transparency Requirement [65.26723285209853]
計算モデルにおける透過的な実装が実現可能かどうかを分析するための枠組みを導出する。
以上の結果から,Blum-Shub-Smale Machinesは,逆問題に対する信頼性の高い解法を確立できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-18T15:32:38Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Transcending XAI Algorithm Boundaries through End-User-Inspired Design [27.864338632191608]
エンドユーザに対する説明責任重視の機能サポートの欠如は、高度なドメインにおけるAIの安全で責任ある使用を妨げる可能性がある。
我々の研究は、エンドユーザーがXAIを使用する際の技術的な問題を根底から解決することで、新たな研究課題がもたらされることを示している。
このようなエンドユーザにインスパイアされた研究質問は、AIを民主化し、クリティカルドメインにおけるAIの責任ある使用を保証することによって、社会的善を促進できる可能性がある。
論文 参考訳(メタデータ) (2022-08-18T09:44:51Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Explaining Black-Box Algorithms Using Probabilistic Contrastive
Counterfactuals [7.727206277914709]
ブラックボックス決定システムを説明するための因果性に基づく原則的アプローチを提案する。
本稿では,変数の直接的および間接的影響が,アルゴリズムによる決定に与える影響を定量的に示す。
このような反事実は,アルゴリズムの決定に負の影響を受ける個人に対して,どのように行動可能なリコースを提供できるかを示す。
論文 参考訳(メタデータ) (2021-03-22T16:20:21Z) - Conceptualising Contestability: Perspectives on Contesting Algorithmic
Decisions [18.155121103400333]
オーストラリアが提案するAI倫理枠組みに反応して提出を行った人々や組織の視点を記述し分析する。」
以上の結果から, 競争性の性質は議論されているものの, 個人を保護する方法と見なされ, 人間の意思決定と競合性に類似していることが判明した。
論文 参考訳(メタデータ) (2021-02-23T05:13:18Z) - Contestable Black Boxes [10.552465253379134]
本稿では,アルゴリズムブラックボックスが関与する際の競合プロセスに必要な保証の種類について検討する。
本論では, 自動意思決定を評価するための補完的手法を考案した。
論文 参考訳(メタデータ) (2020-06-09T09:09:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。