論文の概要: Indexing AI Risks with Incidents, Issues, and Variants
- arxiv url: http://arxiv.org/abs/2211.10384v1
- Date: Fri, 18 Nov 2022 17:32:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 14:33:52.336806
- Title: Indexing AI Risks with Incidents, Issues, and Variants
- Title(参考訳): インシデント、問題、変数によるAIリスクの索引付け
- Authors: Sean McGregor, Kevin Paeth, Khoa Lam
- Abstract要約: データベースのインシデント取り込み基準を満たしていない“イシュー”のバックログが蓄積されました。
航空やコンピュータセキュリティのデータベースと同様に、AIIDはAIインシデントをインデクシングするための2段階のシステムを採用することを提案している。
- 参考スコア(独自算出の注目度): 5.8010446129208155
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Two years after publicly launching the AI Incident Database (AIID) as a
collection of harms or near harms produced by AI in the world, a backlog of
"issues" that do not meet its incident ingestion criteria have accumulated in
its review queue. Despite not passing the database's current criteria for
incidents, these issues advance human understanding of where AI presents the
potential for harm. Similar to databases in aviation and computer security, the
AIID proposes to adopt a two-tiered system for indexing AI incidents (i.e., a
harm or near harm event) and issues (i.e., a risk of a harm event). Further, as
some machine learning-based systems will sometimes produce a large number of
incidents, the notion of an incident "variant" is introduced. These proposed
changes mark the transition of the AIID to a new version in response to lessons
learned from editing 2,000+ incident reports and additional reports that fall
under the new category of "issue."
- Abstract(参考訳): AIインシデントデータベース(AIID)を世界中のAIが生み出した害の集合として公開してから2年が経ち、そのインシデント摂取基準を満たしない「問題」のバックログがレビューキューに蓄積されている。
データベースの現在のインシデント基準をパスしていないにもかかわらず、これらの問題はAIが危害をもたらす可能性を人間に理解させる。
航空やコンピュータセキュリティのデータベースと同様に、AIIDはAIインシデント(害事象または危害事象)と問題(害事象のリスク)をインデクシングするための2段階のシステムを採用することを提案している。
さらに、機械学習ベースのシステムによっては、時に多数のインシデントが発生するため、インシデント"変種"の概念が導入される。
これらの変更は、2000以上のインシデントレポートの編集から学んだ教訓と、新たなカテゴリの「イシュー」に該当する追加報告に応えて、AIIDが新しいバージョンに移行したことを示している。
関連論文リスト
- Lessons for Editors of AI Incidents from the AI Incident Database [2.5165775267615205]
AIインシデントデータベース(AIID)は、AIインシデントをカタログ化し、インシデントを分類するプラットフォームを提供することでさらなる研究を支援するプロジェクトである。
この研究は、AIIDの750以上のAIインシデントのデータセットと、これらのインシデントに適用された2つの独立した曖昧さをレビューし、AIインシデントをインデックス化し分析する一般的な課題を特定する。
我々は、インシデントプロセスが原因、害の程度、重大さ、あるいは関連するシステムの技術的詳細に関連する不確実性に対してより堅牢になるよう、軽減策を報告する。
論文 参考訳(メタデータ) (2024-09-24T19:46:58Z) - Risks and NLP Design: A Case Study on Procedural Document QA [52.557503571760215]
より具体的なアプリケーションやユーザに対して分析を専門化すれば,ユーザに対するリスクや害の明確な評価が可能になる,と我々は主張する。
リスク指向のエラー分析を行い、リスクの低減とパフォーマンスの向上を図り、将来のシステムの設計を通知する。
論文 参考訳(メタデータ) (2024-08-16T17:23:43Z) - AI for All: Identifying AI incidents Related to Diversity and Inclusion [5.364403920214549]
本研究では,AIインシデントデータベースを手動で解析することで,AIシステム内のD&I問題を特定し,理解する。
分析されたAIインシデントのほぼ半数は、人種、性別、年齢差別の顕著な優位性を持つD&Iに関連している。
論文 参考訳(メタデータ) (2024-07-19T08:54:56Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Adversarial AI in Insurance: Pervasiveness and Resilience [0.0]
本稿では,AIシステムを騙し,誤った出力を生成するために,修正された入力データを作成することからなる敵攻撃について検討する。
防御法や予防システムについては,少数発・ゼロ発のマルチラベリングを考慮し論じる。
関心が高まりつつある関連するトピックは、AIとMLコンポーネントを組み込んだシステムの検証と検証である。
論文 参考訳(メタデータ) (2023-01-17T08:49:54Z) - A taxonomic system for failure cause analysis of open source AI
incidents [6.85316573653194]
この研究は、AIID(AI Incident Database)におけるインシデントの集団に専門家の知識を適用する方法を示し、報告された障害や損害に寄与する潜在的な技術的因果関係を推測する。
本稿では,システム目標(ほぼ常に知られている)から手法/技術(多くの場合は理解できない),および関連するシステムの技術的障害原因(専門家分析の対象)まで,関連要因のカスケードをカバーする分類システムについて概説する。
論文 参考訳(メタデータ) (2022-11-14T11:21:30Z) - Predicting Seriousness of Injury in a Traffic Accident: A New Imbalanced
Dataset and Benchmark [62.997667081978825]
本稿では,交通事故における傷害の重大性を予測するために,機械学習アルゴリズムの性能を評価する新しいデータセットを提案する。
データセットは、英国運輸省から公開されているデータセットを集約することで作成される。
論文 参考訳(メタデータ) (2022-05-20T21:15:26Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Preventing Repeated Real World AI Failures by Cataloging Incidents: The
AI Incident Database [6.85316573653194]
AIインシデントデータベース(AI Incident Database)は、AIインシデント回避と緩和を可能にする産業・非営利団体によるインシデントコレクションである。
このデータベースは、これまでにアーカイブされた1000件以上のインシデントレポートに対して、顔と全文検索を備えたさまざまな研究および開発ユースケースをサポートしている。
論文 参考訳(メタデータ) (2020-11-17T08:55:14Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - On Adversarial Examples and Stealth Attacks in Artificial Intelligence
Systems [62.997667081978825]
本稿では,汎用人工知能(AI)システムに対する2種類の多元性行動の評価と分析を行うための公式な枠組みを提案する。
最初のクラスは、逆例を含み、誤分類を引き起こす入力データの小さな摂動の導入を懸念する。
第2のクラスは、ここで初めて導入され、ステルス攻撃と名付けられたもので、AIシステム自体に対する小さな摂動を伴う。
論文 参考訳(メタデータ) (2020-04-09T10:56:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。