論文の概要: Indexing AI Risks with Incidents, Issues, and Variants
- arxiv url: http://arxiv.org/abs/2211.10384v1
- Date: Fri, 18 Nov 2022 17:32:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-11-21 14:33:52.336806
- Title: Indexing AI Risks with Incidents, Issues, and Variants
- Title(参考訳): インシデント、問題、変数によるAIリスクの索引付け
- Authors: Sean McGregor, Kevin Paeth, Khoa Lam
- Abstract要約: データベースのインシデント取り込み基準を満たしていない“イシュー”のバックログが蓄積されました。
航空やコンピュータセキュリティのデータベースと同様に、AIIDはAIインシデントをインデクシングするための2段階のシステムを採用することを提案している。
- 参考スコア(独自算出の注目度): 5.8010446129208155
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Two years after publicly launching the AI Incident Database (AIID) as a
collection of harms or near harms produced by AI in the world, a backlog of
"issues" that do not meet its incident ingestion criteria have accumulated in
its review queue. Despite not passing the database's current criteria for
incidents, these issues advance human understanding of where AI presents the
potential for harm. Similar to databases in aviation and computer security, the
AIID proposes to adopt a two-tiered system for indexing AI incidents (i.e., a
harm or near harm event) and issues (i.e., a risk of a harm event). Further, as
some machine learning-based systems will sometimes produce a large number of
incidents, the notion of an incident "variant" is introduced. These proposed
changes mark the transition of the AIID to a new version in response to lessons
learned from editing 2,000+ incident reports and additional reports that fall
under the new category of "issue."
- Abstract(参考訳): AIインシデントデータベース(AIID)を世界中のAIが生み出した害の集合として公開してから2年が経ち、そのインシデント摂取基準を満たしない「問題」のバックログがレビューキューに蓄積されている。
データベースの現在のインシデント基準をパスしていないにもかかわらず、これらの問題はAIが危害をもたらす可能性を人間に理解させる。
航空やコンピュータセキュリティのデータベースと同様に、AIIDはAIインシデント(害事象または危害事象)と問題(害事象のリスク)をインデクシングするための2段階のシステムを採用することを提案している。
さらに、機械学習ベースのシステムによっては、時に多数のインシデントが発生するため、インシデント"変種"の概念が導入される。
これらの変更は、2000以上のインシデントレポートの編集から学んだ教訓と、新たなカテゴリの「イシュー」に該当する追加報告に応えて、AIIDが新しいバージョンに移行したことを示している。
関連論文リスト
- Who is Responsible When AI Fails? Mapping Causes, Entities, and Consequences of AI Privacy and Ethical Incidents [29.070947259551478]
私たちは202の現実世界のAIプライバシと倫理的インシデントを分析しました。
これにより、AIライフサイクルステージにまたがるインシデントタイプを分類する分類が作成される。
原因、責任ある実体、開示源、影響などの文脈的要因を考慮に入れている。
論文 参考訳(メタデータ) (2025-03-28T21:57:38Z) - AI threats to national security can be countered through an incident regime [55.2480439325792]
我々は、AIシステムからの潜在的な国家安全保障脅威に対抗することを目的とした、法的に義務付けられたポストデプロイAIインシデントシステムを提案する。
提案したAIインシデント体制は,3段階に分けられる。第1フェーズは,‘AIインシデント’とみなすような,新たな運用方法を中心に展開される。
第2フェーズと第3フェーズでは、AIプロバイダが政府機関にインシデントを通知し、政府機関がAIプロバイダのセキュリティおよび安全手順の修正に関与するべきだ、と説明されている。
論文 参考訳(メタデータ) (2025-03-25T17:51:50Z) - Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
誤分類は、偽の盗作行為の告発や、オンラインコンテンツにおけるAIの普及に関する誤解を招く可能性がある。
我々は、AI-Polished-Text Evaluationデータセットを用いて、最先端の11のAIテキスト検出を体系的に評価した。
我々の発見によると、検出器は、最小限に磨き上げられたテキストをAI生成と誤分類し、AIの関与度を区別し、古いモデルと小さなモデルに偏見を示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - Standardised schema and taxonomy for AI incident databases in critical digital infrastructure [2.209921757303168]
重要なデジタルインフラストラクチャへの人工知能の迅速な展開は、重大なリスクをもたらす。
既存のデータベースには、一貫性のあるデータ収集と分析に必要な標準化された構造だけでなく、粒度も欠けている。
この研究は、AIインシデントデータベースのための標準化されたスキーマと分類を提案し、セクタ全体でAIインシデントの詳細と構造化されたドキュメントを可能にする。
論文 参考訳(メタデータ) (2025-01-28T15:59:01Z) - Position: A taxonomy for reporting and describing AI security incidents [57.98317583163334]
AIシステムのセキュリティインシデントを記述し報告するためには、具体的が必要である、と我々は主張する。
非AIセキュリティまたは汎用AI安全インシデントレポートの既存のフレームワークは、AIセキュリティの特定の特性をキャプチャするには不十分である。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Lessons for Editors of AI Incidents from the AI Incident Database [2.5165775267615205]
AIインシデントデータベース(AIID)は、AIインシデントをカタログ化し、インシデントを分類するプラットフォームを提供することでさらなる研究を支援するプロジェクトである。
この研究は、AIIDの750以上のAIインシデントのデータセットと、これらのインシデントに適用された2つの独立した曖昧さをレビューし、AIインシデントをインデックス化し分析する一般的な課題を特定する。
我々は、インシデントプロセスが原因、害の程度、重大さ、あるいは関連するシステムの技術的詳細に関連する不確実性に対してより堅牢になるよう、軽減策を報告する。
論文 参考訳(メタデータ) (2024-09-24T19:46:58Z) - Risks and NLP Design: A Case Study on Procedural Document QA [52.557503571760215]
より具体的なアプリケーションやユーザに対して分析を専門化すれば,ユーザに対するリスクや害の明確な評価が可能になる,と我々は主張する。
リスク指向のエラー分析を行い、リスクの低減とパフォーマンスの向上を図り、将来のシステムの設計を通知する。
論文 参考訳(メタデータ) (2024-08-16T17:23:43Z) - AI for All: Identifying AI incidents Related to Diversity and Inclusion [5.364403920214549]
本研究では,AIインシデントデータベースを手動で解析することで,AIシステム内のD&I問題を特定し,理解する。
分析されたAIインシデントのほぼ半数は、人種、性別、年齢差別の顕著な優位性を持つD&Iに関連している。
論文 参考訳(メタデータ) (2024-07-19T08:54:56Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Adversarial AI in Insurance: Pervasiveness and Resilience [0.0]
本稿では,AIシステムを騙し,誤った出力を生成するために,修正された入力データを作成することからなる敵攻撃について検討する。
防御法や予防システムについては,少数発・ゼロ発のマルチラベリングを考慮し論じる。
関心が高まりつつある関連するトピックは、AIとMLコンポーネントを組み込んだシステムの検証と検証である。
論文 参考訳(メタデータ) (2023-01-17T08:49:54Z) - A taxonomic system for failure cause analysis of open source AI
incidents [6.85316573653194]
この研究は、AIID(AI Incident Database)におけるインシデントの集団に専門家の知識を適用する方法を示し、報告された障害や損害に寄与する潜在的な技術的因果関係を推測する。
本稿では,システム目標(ほぼ常に知られている)から手法/技術(多くの場合は理解できない),および関連するシステムの技術的障害原因(専門家分析の対象)まで,関連要因のカスケードをカバーする分類システムについて概説する。
論文 参考訳(メタデータ) (2022-11-14T11:21:30Z) - Predicting Seriousness of Injury in a Traffic Accident: A New Imbalanced
Dataset and Benchmark [62.997667081978825]
本稿では,交通事故における傷害の重大性を予測するために,機械学習アルゴリズムの性能を評価する新しいデータセットを提案する。
データセットは、英国運輸省から公開されているデータセットを集約することで作成される。
論文 参考訳(メタデータ) (2022-05-20T21:15:26Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Preventing Repeated Real World AI Failures by Cataloging Incidents: The
AI Incident Database [6.85316573653194]
AIインシデントデータベース(AI Incident Database)は、AIインシデント回避と緩和を可能にする産業・非営利団体によるインシデントコレクションである。
このデータベースは、これまでにアーカイブされた1000件以上のインシデントレポートに対して、顔と全文検索を備えたさまざまな研究および開発ユースケースをサポートしている。
論文 参考訳(メタデータ) (2020-11-17T08:55:14Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - On Adversarial Examples and Stealth Attacks in Artificial Intelligence
Systems [62.997667081978825]
本稿では,汎用人工知能(AI)システムに対する2種類の多元性行動の評価と分析を行うための公式な枠組みを提案する。
最初のクラスは、逆例を含み、誤分類を引き起こす入力データの小さな摂動の導入を懸念する。
第2のクラスは、ここで初めて導入され、ステルス攻撃と名付けられたもので、AIシステム自体に対する小さな摂動を伴う。
論文 参考訳(メタデータ) (2020-04-09T10:56:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。