論文の概要: A risk-based approach to assessing liability risk for AI-driven harms
considering EU liability directive
- arxiv url: http://arxiv.org/abs/2401.11697v1
- Date: Mon, 18 Dec 2023 15:52:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-11 17:42:24.238636
- Title: A risk-based approach to assessing liability risk for AI-driven harms
considering EU liability directive
- Title(参考訳): EU責任指令を考慮したAIによる損害の責任リスク評価へのリスクベースアプローチ
- Authors: Sundaraparipurnan Narayanan, Mark Potkewitz
- Abstract要約: AIによる害の歴史的事例により、欧州連合はAIの責任指令を制定した。
製品責任主張に競合するプロバイダの今後の能力は、AIシステムの設計、開発、保守において採用される優れたプラクティスに依存します。
本稿では,AIによる外傷に対する責任を検討するためのリスクベースアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence can cause inconvenience, harm, or other unintended
consequences in various ways, including those that arise from defects or
malfunctions in the AI system itself or those caused by its use or misuse.
Responsibility for AI harms or unintended consequences must be addressed to
hold accountable the people who caused such harms and ensure that victims
receive compensation for any damages or losses they may have sustained.
Historical instances of harm caused by AI have led to European Union
establishing an AI Liability Directive. The directive aims to lay down a
uniform set of rules for access to information, delineate the duty and level of
care required for AI development and use, and clarify the burden of proof for
damages or harms caused by AI systems, establishing broader protection for
victims. The future ability of provider to contest a product liability claim
will depend on good practices adopted in designing, developing, and maintaining
AI systems in the market. This paper provides a risk-based approach to
examining liability for AI-driven injuries. It also provides an overview of
existing liability approaches, insights into limitations and complexities in
these approaches, and a detailed self-assessment questionnaire to assess the
risk associated with liability for a specific AI system from a provider's
perspective.
- Abstract(参考訳): 人工知能は、AIシステム自体の欠陥や不具合から生じるものや、その使用や誤用によって引き起こされるものなど、様々な方法で不便、害その他の意図しない結果を引き起こす可能性がある。
aiの損害や意図しない結果に対する責任は、そのような被害を引き起こした人々に責任を負わせ、被害者が被った損害や損失に対して補償を受けることを保証するために対処しなければならない。
AIによる害の歴史的事例により、欧州連合はAI責任指令を制定した。
この指令は、情報へのアクセスのための統一されたルールを策定し、AI開発と使用に必要な義務とケアのレベルを明確にし、AIシステムによる損害や損害の証明の負担を明確にし、被害者の幅広い保護を確立することを目的としている。
製品責任主張に競合するプロバイダの今後の能力は、市場におけるAIシステムの設計、開発、保守において採用される優れたプラクティスに依存します。
本稿では,AIによる外傷に対するリスクベースアプローチを提案する。
また、既存の責任アプローチの概要、これらのアプローチの制約と複雑さに関する洞察、特定のaiシステムの責任に関連するリスクをプロバイダの観点から評価するための詳細な自己評価アンケートも提供している。
関連論文リスト
- What's my role? Modelling responsibility for AI-based safety-critical
systems [1.0549609328807565]
開発者や製造業者は、AI-SCSの有害な振る舞いに責任を負うことは困難である。
人間のオペレータは、作成に責任を負わなかったAI-SCS出力の結果に責任を負う"信頼性シンク"になる可能性がある。
本稿では,異なる責任感(ロール,モラル,法的,因果関係)と,それらがAI-SCSの安全性の文脈でどのように適用されるかを検討する。
論文 参考訳(メタデータ) (2023-12-30T13:45:36Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Managing AI Risks in an Era of Rapid Progress [147.61764296776164]
我々は、大規模社会被害と悪用、および自律型AIシステムに対する人間の制御の不可逆的喪失について検討する。
迅速かつ継続的なAIの進歩を踏まえ、我々はAI研究開発とガバナンスの緊急優先事項を提案する。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Hazard Management: A framework for the systematic management of root
causes for AI risks [0.0]
本稿ではAI Hazard Management(AIHM)フレームワークを紹介する。
AIのハザードを体系的に識別し、評価し、治療するための構造化されたプロセスを提供する。
総合的な最先端分析からAIハザードリストを構築する。
論文 参考訳(メタデータ) (2023-10-25T15:55:50Z) - Statutory Professions in AI governance and their consequences for
explainable AI [2.363388546004777]
AIの使用によって引き起こされる意図的・偶発的な害は個人の健康、安全、権利に影響を及ぼした。
我々は、AI規制フレームワークの必須部分として、法定専門職の枠組みを導入することを提案する。
論文 参考訳(メタデータ) (2023-06-15T08:51:28Z) - AI Liability Insurance With an Example in AI-Powered E-diagnosis System [22.102728605081534]
我々はAIによるE-diagnosisシステムをAI責任保険の研究の例として用いている。
我々は、AI責任保険がコンプライアンス行動のインセンティブを与えるための規制機構として機能し、高品質なAIシステムの証明書として機能することを示した。
論文 参考訳(メタデータ) (2023-06-01T21:03:47Z) - Trustworthy, responsible, ethical AI in manufacturing and supply chains:
synthesis and emerging research questions [59.34177693293227]
製造の文脈において、責任、倫理、信頼できるAIの適用性について検討する。
次に、機械学習ライフサイクルのより広範な適応を使用して、実証的な例を用いて、各ステップが与えられたAIの信頼性に関する懸念にどのように影響するかを議論します。
論文 参考訳(メタデータ) (2023-05-19T10:43:06Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Liability regimes in the age of AI: a use-case driven analysis of the
burden of proof [1.7510020208193926]
人工知能(AI)を利用した新しいテクノロジーは、私たちの社会をより良く、破壊的に変革する可能性を秘めている。
しかし、安全と基本的権利の両方に潜在的なリスクをもたらす、これらの方法論の固有の特性に対する懸念が高まっている。
本稿では,これらの難易度を示す3つのケーススタディと,それらに到達するための方法論について述べる。
論文 参考訳(メタデータ) (2022-11-03T13:55:36Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。