論文の概要: From Incidents to Insights: Patterns of Responsibility following AI Harms
- arxiv url: http://arxiv.org/abs/2505.04291v1
- Date: Wed, 07 May 2025 09:59:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:36.036081
- Title: From Incidents to Insights: Patterns of Responsibility following AI Harms
- Title(参考訳): インシデントから洞察へ:AIハームの責任パターン
- Authors: Isabel Richards, Claire Benn, Miri Zilka,
- Abstract要約: AIインシデントデータベースは航空安全データベースにインスパイアされ、障害からの集合的学習を可能とし、将来のインシデントを防ぐ。
データベースは、ニュースやメディアから収集された数百のAI障害を文書化している。
技術的に焦点を絞った学習を超えて、データセットは新たな、非常に価値のある洞察を提供することができる、と私たちは主張する。
- 参考スコア(独自算出の注目度): 1.9389881806157316
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The AI Incident Database was inspired by aviation safety databases, which enable collective learning from failures to prevent future incidents. The database documents hundreds of AI failures, collected from the news and media. However, criticism highlights that the AIID's reliance on media reporting limits its utility for learning about implementation failures. In this paper, we accept that the AIID falls short in its original mission, but argue that by looking beyond technically-focused learning, the dataset can provide new, highly valuable insights: specifically, opportunities to learn about patterns between developers, deployers, victims, wider society, and law-makers that emerge after AI failures. Through a three-tier mixed-methods analysis of 962 incidents and 4,743 related reports from the AIID, we examine patterns across incidents, focusing on cases with public responses tagged in the database. We identify 'typical' incidents found in the AIID, from Tesla crashes to deepfake scams. Focusing on this interplay between relevant parties, we uncover patterns in accountability and social expectations of responsibility. We find that the presence of identifiable responsible parties does not necessarily lead to increased accountability. The likelihood of a response and what it amounts to depends highly on context, including who built the technology, who was harmed, and to what extent. Controversy-rich incidents provide valuable data about societal reactions, including insights into social expectations. Equally informative are cases where controversy is notably absent. This work shows that the AIID's value lies not just in preventing technical failures, but in documenting patterns of harms and of institutional response and social learning around AI incidents. These patterns offer crucial insights for understanding how society adapts to and governs emerging AI technologies.
- Abstract(参考訳): AIインシデントデータベースは航空安全データベースにインスパイアされ、障害からの集合的学習を可能とし、将来のインシデントを防ぐ。
データベースは、ニュースやメディアから収集された数百のAI障害を文書化している。
しかし、批判はAIIDのメディアレポートへの依存が、実装の失敗について学ぶための有用性を制限していることを強調している。
この記事では、AIIDが当初のミッションで不足していることを受け入れるが、技術的に焦点を絞った学習を超えて、このデータセットは、特に、開発者、デプロイ者、犠牲者、より広い社会、そしてAIの失敗後に出現する立法者間のパターンについて学ぶための、新しい、非常に価値のある洞察を提供することができる、と論じる。
962件のインシデントと4,743件のAIID関連報告の3段階の混合メソッド分析を通じて,データベースにタグ付けされた公開応答のあるケースに着目し,インシデント間のパターンを調査した。
私たちは、Teslaの事故からディープフェイク詐欺まで、AIIDで見つかった'典型'事件を特定します。
関連する当事者間のこの相互作用に注目して、説明責任のパターンと責任の社会的期待を明らかにする。
特定可能な責任当事者の存在は、必ずしも説明責任の増大につながるとは限らない。
応答の可能性とそれがもたらすものは、誰がその技術を作ったか、誰が傷ついたか、そしてその程度など、文脈に大きく依存する。
論争に富むインシデントは、社会的期待に関する洞察を含む社会的反応に関する貴重なデータを提供する。
同様に、論争が特に欠落している場合も有益である。
この研究は、AIIDの価値は、技術的な失敗を防ぐだけでなく、害のパターンやAIインシデントに関する制度的な反応、社会的学習の文書化にあることを示している。
これらのパターンは、社会が新興AI技術をどのように適応し、支配するかを理解するための重要な洞察を提供する。
関連論文リスト
- Who is Responsible When AI Fails? Mapping Causes, Entities, and Consequences of AI Privacy and Ethical Incidents [29.070947259551478]
私たちは202の現実世界のAIプライバシと倫理的インシデントを分析しました。
これにより、AIライフサイクルステージにまたがるインシデントタイプを分類する分類が作成される。
原因、責任ある実体、開示源、影響などの文脈的要因を考慮に入れている。
論文 参考訳(メタデータ) (2025-03-28T21:57:38Z) - Position: A taxonomy for reporting and describing AI security incidents [57.98317583163334]
AIシステムのセキュリティインシデントを記述し報告するためには、具体的が必要である、と我々は主張する。
非AIセキュリティまたは汎用AI安全インシデントレポートの既存のフレームワークは、AIセキュリティの特定の特性をキャプチャするには不十分である。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Lessons for Editors of AI Incidents from the AI Incident Database [2.5165775267615205]
AIインシデントデータベース(AIID)は、AIインシデントをカタログ化し、インシデントを分類するプラットフォームを提供することでさらなる研究を支援するプロジェクトである。
この研究は、AIIDの750以上のAIインシデントのデータセットと、これらのインシデントに適用された2つの独立した曖昧さをレビューし、AIインシデントをインデックス化し分析する一般的な課題を特定する。
我々は、インシデントプロセスが原因、害の程度、重大さ、あるいは関連するシステムの技術的詳細に関連する不確実性に対してより堅牢になるよう、軽減策を報告する。
論文 参考訳(メタデータ) (2024-09-24T19:46:58Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - What's my role? Modelling responsibility for AI-based safety-critical
systems [1.0549609328807565]
開発者や製造業者は、AI-SCSの有害な振る舞いに責任を負うことは困難である。
人間のオペレータは、作成に責任を負わなかったAI-SCS出力の結果に責任を負う"信頼性シンク"になる可能性がある。
本稿では,異なる責任感(ロール,モラル,法的,因果関係)と,それらがAI-SCSの安全性の文脈でどのように適用されるかを検討する。
論文 参考訳(メタデータ) (2023-12-30T13:45:36Z) - VerifAI: Verified Generative AI [22.14231506649365]
生成AIは大きな進歩を遂げているが、その正確性と信頼性に関する懸念は拡大を続けている。
本稿では,データ管理の観点から生成AIの出力を検証することが,生成AIの新たな課題であることを示す。
私たちのビジョンは、検証可能な生成AIの開発を促進し、より信頼性が高く責任あるAIの利用に貢献することです。
論文 参考訳(メタデータ) (2023-07-06T06:11:51Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Indexing AI Risks with Incidents, Issues, and Variants [5.8010446129208155]
データベースのインシデント取り込み基準を満たしていない“イシュー”のバックログが蓄積されました。
航空やコンピュータセキュリティのデータベースと同様に、AIIDはAIインシデントをインデクシングするための2段階のシステムを採用することを提案している。
論文 参考訳(メタデータ) (2022-11-18T17:32:19Z) - Attacking Open-domain Question Answering by Injecting Misinformation [116.25434773461465]
質問応答モデル(QA)に対する誤報のリスクについて,オープンドメインQAモデルの誤報文書に対する感度について検討した。
実験により、QAモデルは誤情報による少量の証拠汚染に対して脆弱であることが示されている。
質問応答と誤情報検出を統合した誤情報認識型QAシステムの構築の必要性について論じる。
論文 参考訳(メタデータ) (2021-10-15T01:55:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。