論文の概要: Unravelling Responsibility for AI
- arxiv url: http://arxiv.org/abs/2308.02608v2
- Date: Wed, 8 May 2024 14:37:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-09 19:20:21.714612
- Title: Unravelling Responsibility for AI
- Title(参考訳): AIの責任を宣言しない
- Authors: Zoe Porter, Philippa Ryan, Phillip Morgan, Joanna Al-Qaddoumi, Bernard Twomey, John McDermid, Ibrahim Habli,
- Abstract要約: AI対応システムのアウトプットと影響に責任を負う場所を確立する必要があることは広く認識されている。
本稿では,AIの責任概念を明確にするために,哲学と法学における中心的な違いを考察する。
- 参考スコア(独自算出の注目度): 0.8836921728313208
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is widely acknowledged that we need to establish where responsibility lies for the outputs and impacts of AI-enabled systems. But without a clear and precise understanding of what "responsibility" means, deliberations about where responsibility lies will be, at best, unfocused and incomplete and, at worst, misguided. To address this concern, this paper draws upon central distinctions in philosophy and law to clarify the concept of responsibility for AI for policymakers, practitioners, researchers and students from non-philosophical and non-legal backgrounds. Taking the three-part formulation "Actor A is responsible for Occurrence O," the paper unravels the concept of responsibility to clarify that there are different possibilities of who is responsible for AI, the senses in which they are responsible, and aspects of events they are responsible for. Criteria and conditions for fitting attributions of responsibility in the core senses (causal responsibility, role-responsibility, liability responsibility and moral responsibility) are articulated to promote an understanding of when responsibility attributions would be inappropriate or unjust. The analysis is presented with a graphical notation to facilitate informal diagrammatic reasoning and discussion about specific cases. It is illustrated by application to a scenario of a fatal collision between an autonomous AI-enabled ship and a traditional, crewed vessel at sea.
- Abstract(参考訳): AI対応システムのアウトプットと影響に責任を負う場所を確立する必要があることは広く認識されている。
しかし、"責任"が何を意味するのかを明確に正確に理解することなく、責任の所在に関する議論は、せいぜい、焦点を絞らず、不完全であり、最悪の場合、誤解される。
本論文は、政策立案者、実践者、研究者、学生に対するAIの責任概念を、非哲学的、非法学的背景から明らかにするために、哲学と法の中心的な区別を生かしたものである。
アクターAがOに責任を負う"という3部構成で、この論文は責任の概念を明らかにし、誰がAIに責任を持つか、彼らが責任を負う感覚、そして彼らが責任を負う出来事の側面について、異なる可能性があることを明確にする。
コアセンスにおける責任の帰属(因果責任、役割責任、責任責任責任、道徳責任)の条件と基準は、責任の帰属が適切でないか不適切であるかどうかの理解を促進するために具体化される。
この分析にはグラフィカルな表記法が組み込まれており、図式推論や特定の事例についての議論が容易になっている。
自律型AI搭載船と、海上の従来型有人船との間の致命的な衝突のシナリオに適用することで、この現象が説明できる。
関連論文リスト
- Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - The Odyssey of Commonsense Causality: From Foundational Benchmarks to Cutting-Edge Reasoning [70.16523526957162]
常識の因果関係を理解することは、人々が現実世界の原理をよりよく理解するのに役立ちます。
その重要性にもかかわらず、このトピックの体系的な探索は特に欠落している。
本研究の目的は、体系的な概要の提供、最近の進歩に関する学者の更新、初心者のための実践的なガイドを提供することである。
論文 参考訳(メタデータ) (2024-06-27T16:30:50Z) - Attributing Responsibility in AI-Induced Incidents: A Computational Reflective Equilibrium Framework for Accountability [13.343937277604892]
AI(Artificial Intelligence)の広範な統合は、AI対応システムに関わるインシデントが発生した場合の責任と説明責任において、複雑な課題を導入している。
この研究は、すべての利害関係者に対して、一貫性があり倫理的に許容される責任帰属の枠組みを提案する。
論文 参考訳(メタデータ) (2024-04-25T18:11:03Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - What's my role? Modelling responsibility for AI-based safety-critical
systems [1.0549609328807565]
開発者や製造業者は、AI-SCSの有害な振る舞いに責任を負うことは困難である。
人間のオペレータは、作成に責任を負わなかったAI-SCS出力の結果に責任を負う"信頼性シンク"になる可能性がある。
本稿では,異なる責任感(ロール,モラル,法的,因果関係)と,それらがAI-SCSの安全性の文脈でどのように適用されるかを検討する。
論文 参考訳(メタデータ) (2023-12-30T13:45:36Z) - Responsibility in Extensive Form Games [1.4104545468525629]
2つの異なる形態の責任、すなわち反現実的であり、哲学とAIで広く議論されている。
本稿では,2つのモダリティを調和させるような設定に対して,ルック・トゥ・イットの責任の定義を提案する。
これらの2つの責任形態は、それぞれの可能な状況において責任を負うのに十分なものではないが、高次の責任を考慮すると、このギャップは存在しないことを示している。
論文 参考訳(メタデータ) (2023-12-12T10:41:17Z) - Ethical Considerations and Policy Implications for Large Language
Models: Guiding Responsible Development and Deployment [48.72819550642584]
本稿では,コンテンツ生成における大規模言語モデル(LLM)の倫理的考察と意義について考察する。
生成AIプログラムの肯定的および否定的な使用の可能性を強調し、アウトプットに責任を割り当てる際の課題を探求する。
論文 参考訳(メタデータ) (2023-08-01T07:21:25Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Responsible AI and Its Stakeholders [14.129366395072026]
我々は、AIを含むすべての利害関係者に対する責任(責任、責任、責任)の3つの概念について議論し、この問題における司法権と一般市民の役割を提案する。
論文 参考訳(メタデータ) (2020-04-23T19:27:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。