論文の概要: Designing Incident Reporting Systems for Harms from General-Purpose AI
- arxiv url: http://arxiv.org/abs/2511.05914v1
- Date: Sat, 08 Nov 2025 08:22:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.649125
- Title: Designing Incident Reporting Systems for Harms from General-Purpose AI
- Title(参考訳): 汎用AIによるハームのインシデント報告システムの設計
- Authors: Kevin Wei, Lennart Heim,
- Abstract要約: 我々は,AIインシデント報告システムの概念的枠組みを導入し,制度設計について考察する。
本稿では、米国におけるAIインシデントレポートの設計考察を抽出するために、安全クリティカル産業におけるインシデントレポートの9つのケーススタディについて検討する。
- 参考スコア(独自算出の注目度): 3.2668127890552037
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce a conceptual framework and provide considerations for the institutional design of AI incident reporting systems, i.e., processes for collecting information about safety- and rights-related events caused by general-purpose AI. As general-purpose AI systems are increasingly adopted, they are causing more real-world harms and displaying the potential to cause significantly more dangerous incidents - events that did or could have caused harm to individuals, property, or the environment. Through a literature review, we develop a framework for understanding the institutional design of AI incident reporting systems, which includes seven dimensions: policy goal, actors submitting and receiving reports, type of incidents reported, level of risk materialization, enforcement of reporting, anonymity of reporters, and post-reporting actions. We then examine nine case studies of incident reporting in safety-critical industries to extract design considerations for AI incident reporting in the United States. We discuss, among other factors, differences in systems operated by regulatory vs. non-regulatory government agencies, near miss reporting, the roles of mandatory reporting thresholds and voluntary reporting channels, how to enable safety learning after reporting, sharing incident information, and clarifying legal frameworks for reporting. Our aim is to inform researchers and policymakers about when particular design choices might be more or less appropriate for AI incident reporting.
- Abstract(参考訳): 本稿では,AIインシデント報告システム,すなわち汎用AIによって引き起こされる安全・権利関連事象に関する情報を収集するプロセスについて,概念的枠組みを導入し,制度的設計について考察する。
汎用AIシステムがますます採用されるにつれて、現実世界の害が増し、個人や財産、環境に危害を与えたり、あるいは起こりうる出来事など、より危険な出来事を引き起こす可能性があることが示されています。
文献レビューを通じて、我々は、AIインシデント報告システムの制度設計を理解するための枠組みを開発し、政策目標、アクターが報告を提出して受け取り、インシデントの種類、リスク物質化のレベル、レポートの実施、記者の匿名性、ポストレポート行動の7つの側面を含む。
次に、米国におけるAIインシデントレポートの設計考察を抽出するために、安全クリティカル産業におけるインシデントレポートの9つのケーススタディについて検討する。
本稿では,規制当局と非規制機関の運営するシステムの違い,ミスに近い報告,強制報告のしきい値と自発的報告チャネルの役割,報告後の安全学習の実現,インシデント情報の共有,報告のための法的枠組みの明確化などについて論じる。
私たちの目標は、AIインシデントレポートに特定の設計選択が適当であるかどうかを研究者や政策立案者に知らせることです。
関連論文リスト
- Incorporating AI Incident Reporting into Telecommunications Law and Policy: Insights from India [0.6875312133832078]
本稿では,電気通信AIインシデントの詳細と正確な定義を紹介する。
独自の規制上の懸念として認識されていると論じている。
本稿では、インドの既存のテレコムガバナンスにAIインシデントレポートを統合することに焦点を当てたポリシーレコメンデーションを提案する。
論文 参考訳(メタデータ) (2025-09-11T14:50:41Z) - Incident Analysis for AI Agents [0.7831579563743714]
AIエージェントがより広くデプロイされるにつれて、インシデントの数が増える可能性が高い。
本稿ではエージェントのインシデント分析フレームワークを提案する。
特定のインシデントに関連する要因を明らかにするのに役立つ、特定の情報を特定します。
論文 参考訳(メタデータ) (2025-08-19T19:39:37Z) - Who is Responsible When AI Fails? Mapping Causes, Entities, and Consequences of AI Privacy and Ethical Incidents [31.53910982726317]
我々は、202の現実世界のAIプライバシと倫理的インシデントを分析し、分類学を開発した。
この結果から, 組織的決定の貧弱さと法的な非コンプライアンスの悪影響が明らかとなった。
本研究は,政策立案者や実践者に対して有効なガイダンスを提供する。
論文 参考訳(メタデータ) (2025-03-28T21:57:38Z) - In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI [93.33036653316591]
我々はシステムの安全性を高めるために3つの介入を要求します。
まず、標準化されたAI欠陥レポートと研究者へのエンゲージメントのルールを用いることを提案する。
第2に,GPAIシステムプロバイダが広視野欠陥開示プログラムを採用することを提案する。
第3に,欠陥報告の分布を調整するための改良されたインフラの開発を提唱する。
論文 参考訳(メタデータ) (2025-03-21T05:09:46Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Lessons for Editors of AI Incidents from the AI Incident Database [2.5165775267615205]
AIインシデントデータベース(AIID)は、AIインシデントをカタログ化し、インシデントを分類するプラットフォームを提供することでさらなる研究を支援するプロジェクトである。
この研究は、AIIDの750以上のAIインシデントのデータセットと、これらのインシデントに適用された2つの独立した曖昧さをレビューし、AIインシデントをインデックス化し分析する一般的な課題を特定する。
我々は、インシデントプロセスが原因、害の程度、重大さ、あるいは関連するシステムの技術的詳細に関連する不確実性に対してより堅牢になるよう、軽減策を報告する。
論文 参考訳(メタデータ) (2024-09-24T19:46:58Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。