論文の概要: Preventing Repeated Real World AI Failures by Cataloging Incidents: The
AI Incident Database
- arxiv url: http://arxiv.org/abs/2011.08512v1
- Date: Tue, 17 Nov 2020 08:55:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-23 21:30:41.757735
- Title: Preventing Repeated Real World AI Failures by Cataloging Incidents: The
AI Incident Database
- Title(参考訳): インシデントカタログ作成による現実世界のai障害の繰り返し防止 - aiインシデントデータベース
- Authors: Sean McGregor
- Abstract要約: AIインシデントデータベース(AI Incident Database)は、AIインシデント回避と緩和を可能にする産業・非営利団体によるインシデントコレクションである。
このデータベースは、これまでにアーカイブされた1000件以上のインシデントレポートに対して、顔と全文検索を備えたさまざまな研究および開発ユースケースをサポートしている。
- 参考スコア(独自算出の注目度): 6.85316573653194
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Mature industrial sectors (e.g., aviation) collect their real world failures
in incident databases to inform safety improvements. Intelligent systems
currently cause real world harms without a collective memory of their failings.
As a result, companies repeatedly make the same mistakes in the design,
development, and deployment of intelligent systems. A collection of intelligent
system failures experienced in the real world (i.e., incidents) is needed to
ensure intelligent systems benefit people and society. The AI Incident Database
is an incident collection initiated by an industrial/non-profit cooperative to
enable AI incident avoidance and mitigation. The database supports a variety of
research and development use cases with faceted and full text search on more
than 1,000 incident reports archived to date.
- Abstract(参考訳): 成熟した産業部門(例えば航空)は、安全改善を知らせるためにインシデントデータベースに現実世界の障害を収集します。
インテリジェントシステムは現在、失敗の集合記憶なしで現実世界の害を引き起こしている。
その結果、企業はインテリジェントシステムの設計、開発、デプロイにおいて繰り返し同じ間違いを犯した。
実世界で経験したインテリジェントなシステム障害(インシデント)のコレクションは、インテリジェントなシステムが人々や社会に利益をもたらすために必要です。
AIインシデントデータベース(AI Incident Database)は、AIインシデント回避と緩和を可能にする産業・非営利団体によるインシデントコレクションである。
このデータベースは、これまでにアーカイブされた1000件以上のインシデントレポートに対して、顔と全文検索を備えたさまざまな研究および開発ユースケースをサポートしている。
関連論文リスト
- Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Lessons for Editors of AI Incidents from the AI Incident Database [2.5165775267615205]
AIインシデントデータベース(AIID)は、AIインシデントをカタログ化し、インシデントを分類するプラットフォームを提供することでさらなる研究を支援するプロジェクトである。
この研究は、AIIDの750以上のAIインシデントのデータセットと、これらのインシデントに適用された2つの独立した曖昧さをレビューし、AIインシデントをインデックス化し分析する一般的な課題を特定する。
我々は、インシデントプロセスが原因、害の程度、重大さ、あるいは関連するシステムの技術的詳細に関連する不確実性に対してより堅牢になるよう、軽減策を報告する。
論文 参考訳(メタデータ) (2024-09-24T19:46:58Z) - Concrete Problems in AI Safety, Revisited [1.4089652912597792]
AIシステムが社会で普及するにつれて、AIコミュニティはAI安全の概念に夢中になっている。
このような事象の現実的なケースの分析を通じて、現在の語彙は、AIデプロイメントの遭遇した問題の範囲を捉えているが、拡張された社会技術フレーミングが必要であることを実証する。
論文 参考訳(メタデータ) (2023-12-18T23:38:05Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Indexing AI Risks with Incidents, Issues, and Variants [5.8010446129208155]
データベースのインシデント取り込み基準を満たしていない“イシュー”のバックログが蓄積されました。
航空やコンピュータセキュリティのデータベースと同様に、AIIDはAIインシデントをインデクシングするための2段階のシステムを採用することを提案している。
論文 参考訳(メタデータ) (2022-11-18T17:32:19Z) - A taxonomic system for failure cause analysis of open source AI
incidents [6.85316573653194]
この研究は、AIID(AI Incident Database)におけるインシデントの集団に専門家の知識を適用する方法を示し、報告された障害や損害に寄与する潜在的な技術的因果関係を推測する。
本稿では,システム目標(ほぼ常に知られている)から手法/技術(多くの場合は理解できない),および関連するシステムの技術的障害原因(専門家分析の対象)まで,関連要因のカスケードをカバーする分類システムについて概説する。
論文 参考訳(メタデータ) (2022-11-14T11:21:30Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Understanding and Avoiding AI Failures: A Practical Guide [0.6526824510982799]
AIアプリケーションに関連するリスクを理解するためのフレームワークを作成します。
また、AIの安全性原則を使用して、AIにおけるインテリジェンスと人間のような品質のユニークなリスクを定量化しています。
論文 参考訳(メタデータ) (2021-04-22T17:05:27Z) - Empowering Things with Intelligence: A Survey of the Progress,
Challenges, and Opportunities in Artificial Intelligence of Things [98.10037444792444]
AIがIoTをより速く、より賢く、よりグリーンで、より安全にするための力を与える方法を示します。
まず、認識、学習、推論、行動の4つの視点から、IoTのためのAI研究の進歩を示す。
最後に、私たちの世界を深く再形成する可能性が高いAIoTの有望な応用をいくつかまとめる。
論文 参考訳(メタデータ) (2020-11-17T13:14:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。