論文の概要: Attributing Responsibility in AI-Induced Incidents: A Computational Reflective Equilibrium Framework for Accountability
- arxiv url: http://arxiv.org/abs/2404.16957v1
- Date: Thu, 25 Apr 2024 18:11:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 14:43:43.655689
- Title: Attributing Responsibility in AI-Induced Incidents: A Computational Reflective Equilibrium Framework for Accountability
- Title(参考訳): AIによるインシデントに対する責任--アカウンタビリティのための計算的リフレクティブ均衡フレームワーク
- Authors: Yunfei Ge, Quanyan Zhu,
- Abstract要約: AI(Artificial Intelligence)の広範な統合は、AI対応システムに関わるインシデントが発生した場合の責任と説明責任において、複雑な課題を導入している。
この研究は、すべての利害関係者に対して、一貫性があり倫理的に許容される責任帰属の枠組みを提案する。
- 参考スコア(独自算出の注目度): 13.343937277604892
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The pervasive integration of Artificial Intelligence (AI) has introduced complex challenges in the responsibility and accountability in the event of incidents involving AI-enabled systems. The interconnectivity of these systems, ethical concerns of AI-induced incidents, coupled with uncertainties in AI technology and the absence of corresponding regulations, have made traditional responsibility attribution challenging. To this end, this work proposes a Computational Reflective Equilibrium (CRE) approach to establish a coherent and ethically acceptable responsibility attribution framework for all stakeholders. The computational approach provides a structured analysis that overcomes the limitations of conceptual approaches in dealing with dynamic and multifaceted scenarios, showcasing the framework's explainability, coherence, and adaptivity properties in the responsibility attribution process. We examine the pivotal role of the initial activation level associated with claims in equilibrium computation. Using an AI-assisted medical decision-support system as a case study, we illustrate how different initializations lead to diverse responsibility distributions. The framework offers valuable insights into accountability in AI-induced incidents, facilitating the development of a sustainable and resilient system through continuous monitoring, revision, and reflection.
- Abstract(参考訳): AI(Artificial Intelligence)の広範な統合は、AI対応システムに関わるインシデントが発生した場合の責任と説明責任において、複雑な課題を導入している。
これらのシステムの相互接続性、AIによるインシデントに対する倫理的懸念、AI技術の不確実性、およびそれに対応する規制の欠如が、従来の責任帰属を困難にしている。
この目的のために、この研究は、すべての利害関係者に対して、一貫性と倫理的に許容される責任帰属の枠組みを確立するための計算反射平衡(CRE)アプローチを提案する。
この計算手法は、動的および多面的シナリオを扱う際の概念的アプローチの限界を克服し、責任帰属プロセスにおけるフレームワークの説明可能性、コヒーレンス、適応性を示す構造化分析を提供する。
平衡計算におけるクレームに関連する初期活性化レベルの重要な役割について検討する。
AIを用いた医療意思決定支援システムをケーススタディとして、異なる初期化が様々な責任分散にどのように寄与するかを説明する。
このフレームワークは、AIが引き起こしたインシデントにおける説明責任に関する貴重な洞察を提供し、継続的監視、リフレクション、リフレクションを通じて持続的でレジリエントなシステムの開発を促進する。
関連論文リスト
- Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - An Adaptive Framework for Generating Systematic Explanatory Answer in Online Q&A Platforms [62.878616839799776]
質問応答(QA)性能を向上させるために設計された,革新的なフレームワークであるSynthRAGを提案する。
SynthRAGは動的コンテンツの構造化に適応的なアウトラインを用いることで従来のモデルを改善する。
Zhihuプラットフォーム上のオンラインデプロイメントでは、SynthRAGの回答が注目すべきユーザエンゲージメントを実現していることが明らかになった。
論文 参考訳(メタデータ) (2024-10-23T09:14:57Z) - Computational Grounding of Responsibility Attribution and Anticipation in LTLf [25.988412601884182]
責任(Responsibility)とは、行動や戦略に関する反現実的な推論を含む多面的な概念である。
我々は, 勝敗, 支配的, 最善戦略の合成を含む, 反応合成の概念との関連性を示す。
論文 参考訳(メタデータ) (2024-10-18T15:38:33Z) - Investigating the Role of Instruction Variety and Task Difficulty in Robotic Manipulation Tasks [50.75902473813379]
本研究は、そのようなモデルの一般化能力における命令と入力の役割を体系的に検証する包括的評価フレームワークを導入する。
提案フレームワークは,極度の命令摂動に対するマルチモーダルモデルのレジリエンスと,観測的変化に対する脆弱性を明らかにする。
論文 参考訳(メタデータ) (2024-07-04T14:36:49Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Unravelling Responsibility for AI [0.8836921728313208]
AI対応システムのアウトプットと影響に責任を負う場所を確立する必要があることは広く認識されている。
本稿では,AIの責任概念を明確にするために,哲学と法学における中心的な違いを考察する。
論文 参考訳(メタデータ) (2023-08-04T13:12:17Z) - Accountability in an Algorithmic Society: Relationality, Responsibility,
and Robustness in Machine Learning [4.958893997693021]
1996年、Nissenbaumは、社会における説明責任の侵食について、コンピュータ化されたシステムへの連続関数のユビキタスな委任による宣言を発した。
我々は、データ駆動型アルゴリズムシステムの上昇に関連して、Nissenbaum氏の論文を再考する。
本稿では,データ駆動型アルゴリズムシステムにおいて,一貫したモラル・リレーショナル・フレームワークを実現する上で,障壁がいかに困難であるかを論じる。
論文 参考訳(メタデータ) (2022-02-10T21:39:02Z) - Accountability in AI: From Principles to Industry-specific Accreditation [4.033641609534416]
最近のAI関連のスキャンダルは、AIのアカウンタビリティに注目を向けている。
本稿では2つの貢献をするために公共政策とガバナンスから文献を引用する。
論文 参考訳(メタデータ) (2021-10-08T16:37:11Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。