論文の概要: AI Hazard Management: A framework for the systematic management of root
causes for AI risks
- arxiv url: http://arxiv.org/abs/2310.16727v2
- Date: Thu, 7 Mar 2024 12:55:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 17:49:45.076655
- Title: AI Hazard Management: A framework for the systematic management of root
causes for AI risks
- Title(参考訳): AIハザードマネジメント:AIリスクに対する根本原因の体系的管理のためのフレームワーク
- Authors: Ronald Schnitzer, Andreas Hapfelmeier, Sven Gaube, Sonja Zillner
- Abstract要約: 本稿ではAI Hazard Management(AIHM)フレームワークを紹介する。
AIのハザードを体系的に識別し、評価し、治療するための構造化されたプロセスを提供する。
総合的な最先端分析からAIハザードリストを構築する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in the field of Artificial Intelligence (AI) establish
the basis to address challenging tasks. However, with the integration of AI,
new risks arise. Therefore, to benefit from its advantages, it is essential to
adequately handle the risks associated with AI. Existing risk management
processes in related fields, such as software systems, need to sufficiently
consider the specifics of AI. A key challenge is to systematically and
transparently identify and address AI risks' root causes - also called AI
hazards. This paper introduces the AI Hazard Management (AIHM) framework, which
provides a structured process to systematically identify, assess, and treat AI
hazards. The proposed process is conducted in parallel with the development to
ensure that any AI hazard is captured at the earliest possible stage of the AI
system's life cycle. In addition, to ensure the AI system's auditability, the
proposed framework systematically documents evidence that the potential impact
of identified AI hazards could be reduced to a tolerable level. The framework
builds upon an AI hazard list from a comprehensive state-of-the-art analysis.
Also, we provide a taxonomy that supports the optimal treatment of the
identified AI hazards. Additionally, we illustrate how the AIHM framework can
increase the overall quality of a power grid AI use case by systematically
reducing the impact of identified hazards to an acceptable level.
- Abstract(参考訳): 人工知能(ai)分野の最近の進歩は、課題に取り組むための基盤を確立する。
しかし、AIの統合により、新たなリスクが発生する。
したがって、その利点の恩恵を受けるためには、AIに関連するリスクを適切に扱うことが不可欠である。
ソフトウェアシステムなどの関連分野における既存のリスク管理プロセスは、AIの仕様を十分に考慮する必要があります。
重要な課題は、AIリスクの根本原因を体系的かつ透過的に識別し、対処することである。
本稿では、AIハザード管理(AIHM)フレームワークを紹介し、AIハザードを体系的に識別し、評価し、治療するための構造化プロセスを提供する。
提案プロセスは、AIシステムのライフサイクルの最初期の段階でAIのハザードが捕捉されることを保証するため、開発と並行して実行される。
さらに、AIシステムの監査可能性を保証するため、提案されたフレームワークは、特定されたAIハザードの潜在的影響が許容できるレベルに低下する可能性があるという証拠を体系的に文書化している。
このフレームワークは、総合的な最先端分析からAIハザードリストの上に構築されている。
また、特定されたAIハザードの最適処理を支援する分類法も提供する。
さらに、AIHMフレームワークは、特定されたハザードの影響を許容レベルまで体系的に低減することで、電力グリッドAIユースケースの全体的な品質を向上する方法について説明する。
関連論文リスト
- Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - Managing AI Risks in an Era of Rapid Progress [147.61764296776164]
我々は、大規模社会被害と悪用、および自律型AIシステムに対する人間の制御の不可逆的喪失について検討する。
迅速かつ継続的なAIの進歩を踏まえ、我々はAI研究開発とガバナンスの緊急優先事項を提案する。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Predictable Artificial Intelligence [67.79118050651908]
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
本稿では,予測可能なAIに関する疑問,仮説,課題を解明することを目的とする。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - An Overview of Catastrophic AI Risks [38.84933208563934]
本稿では,破滅的なAIリスクの主な要因について概説し,その要因を4つのカテゴリに分類する。
個人やグループが意図的にAIを使用して危害を及ぼす悪用; 競争環境がアクターに安全でないAIを配置させたり、AIに制御を強制するAIレース。
組織的リスクは 人的要因と複雑なシステムが 破滅的な事故の 可能性を高めることを示しています
不正なAIは、人間よりもはるかにインテリジェントなエージェントを制御することの難しさを説明する。
論文 参考訳(メタデータ) (2023-06-21T03:35:06Z) - Responsible Design Patterns for Machine Learning Pipelines [10.184056098238765]
AI倫理には、AIシステムのライフサイクル全体に倫理的原則を適用することが含まれる。
これは、バイアスなどのAIに関連する潜在的なリスクと害を軽減するために不可欠である。
この目標を達成するために、責任あるデザインパターン(RDP)は機械学習(ML)パイプラインに不可欠である。
論文 参考訳(メタデータ) (2023-05-31T15:47:12Z) - QB4AIRA: A Question Bank for AI Risk Assessment [19.783485414942284]
QB4AIRAは、幅広いAIリスク領域をカバーする293の優先順位付けされた質問で構成されている。
AIリスクの評価と管理において、利害関係者にとって貴重なリソースとして機能する。
論文 参考訳(メタデータ) (2023-05-16T09:18:44Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - A Brief Overview of AI Governance for Responsible Machine Learning
Systems [3.222802562733787]
このポジションペーパーは、AIの責任ある使用を監督するように設計されたフレームワークである、AIガバナンスの簡単な紹介を提案する。
AIの確率的性質のため、それに関連するリスクは従来の技術よりもはるかに大きい。
論文 参考訳(メタデータ) (2022-11-21T23:48:51Z) - Quantitative AI Risk Assessments: Opportunities and Challenges [9.262092738841979]
AIベースのシステムは、組織、個人、社会に価値を提供するために、ますます活用されている。
リスクは、提案された規制、訴訟、および一般的な社会的懸念につながった。
本稿では,定量的AIリスクアセスメントの概念について考察する。
論文 参考訳(メタデータ) (2022-09-13T21:47:25Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。