論文の概要: Quantitative AI Risk Assessments: Opportunities and Challenges
- arxiv url: http://arxiv.org/abs/2209.06317v1
- Date: Tue, 13 Sep 2022 21:47:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-15 13:27:47.701489
- Title: Quantitative AI Risk Assessments: Opportunities and Challenges
- Title(参考訳): 定量的aiリスクアセスメント: 機会と課題
- Authors: David Piorkowski, Michael Hind, John Richards
- Abstract要約: AIベースのシステムは、組織、個人、社会に価値を提供するために、ますます活用されている。
リスクは、提案された規制、訴訟、および一般的な社会的懸念につながった。
本稿では,定量的AIリスクアセスメントの概念について考察する。
- 参考スコア(独自算出の注目度): 9.262092738841979
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although AI-based systems are increasingly being leveraged to provide value
to organizations, individuals, and society, significant attendant risks have
been identified. These risks have led to proposed regulations, litigation, and
general societal concerns.
As with any promising technology, organizations want to benefit from the
positive capabilities of AI technology while reducing the risks. The best way
to reduce risks is to implement comprehensive AI lifecycle governance where
policies and procedures are described and enforced during the design,
development, deployment, and monitoring of an AI system. While support for
comprehensive governance is beginning to emerge, organizations often need to
identify the risks of deploying an already-built model without knowledge of how
it was constructed or access to its original developers.
Such an assessment will quantitatively assess the risks of an existing model
in a manner analogous to how a home inspector might assess the energy
efficiency of an already-built home or a physician might assess overall patient
health based on a battery of tests. This paper explores the concept of a
quantitative AI Risk Assessment, exploring the opportunities, challenges, and
potential impacts of such an approach, and discussing how it might improve AI
regulations.
- Abstract(参考訳): AIベースのシステムは、組織、個人、社会に価値を提供するためにますます活用されているが、かなりのリスクが特定されている。
これらのリスクは、提案された規制、訴訟、および一般社会の懸念に繋がった。
有望なテクノロジと同じように、組織はリスクを低減しつつ、AI技術の肯定的な能力から恩恵を得たいと思っています。
リスクを減らす最善の方法は、AIシステムの設計、開発、デプロイメント、監視中にポリシーと手順が記述され、強制される、包括的なAIライフサイクルガバナンスを実装することだ。
包括的なガバナンスのサポートが登場し始めているが、組織は、どのように構築されたか、あるいはオリジナルの開発者にアクセスできるかを知ることなく、既に構築されたモデルをデプロイするリスクを特定する必要があることが多い。
このような評価は、ホームインスペクタが既に構築された家庭のエネルギー効率を評価する方法や、医師がテストのバッテリに基づいて患者の健康全体を評価する方法と同様の方法で、既存のモデルのリスクを定量的に評価する。
本稿では、定量的AIリスクアセスメントの概念を探求し、そのようなアプローチの機会、課題、潜在的な影響を探求し、AI規制をどのように改善するかについて議論する。
関連論文リスト
- Risk Sources and Risk Management Measures in Support of Standards for General-Purpose AI Systems [2.3266896180922187]
我々は、汎用AIシステムのためのリスクソースとリスク管理対策の広範なカタログをコンパイルする。
この作業には、モデル開発、トレーニング、デプロイメントステージにわたる技術的、運用的、社会的リスクの特定が含まれる。
このカタログは、AIガバナンスと標準における利害関係者による直接的な使用を容易にするために、パブリックドメインライセンス下でリリースされている。
論文 参考訳(メタデータ) (2024-10-30T21:32:56Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Responsible AI in Open Ecosystems: Reconciling Innovation with Risk Assessment and Disclosure [4.578401882034969]
私たちは、モデルパフォーマンス評価がモデル制限やバイアス、その他のリスクの予測を通知したり、妨げたりする方法について焦点を当てています。
我々の発見は、倫理的取り込みを動機づけつつ、オープンソースのイノベーションを維持するための介入やポリシーを設計するAI提供者や法学者に通知することができる。
論文 参考訳(メタデータ) (2024-09-27T19:09:40Z) - EAIRiskBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [47.69642609574771]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
EAIRiskBenchは、EAIシナリオにおける自動物理的リスクアセスメントのための新しいフレームワークである。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Evaluating AI Evaluation: Perils and Prospects [8.086002368038658]
本稿では,これらのシステムに対する評価手法が根本的に不適切であることを主張する。
AIシステムを評価するためには改革が必要であり、インスピレーションを得るために認知科学に目を向けるべきである、と私は主張する。
論文 参考訳(メタデータ) (2024-07-12T12:37:13Z) - Risks and Opportunities of Open-Source Generative AI [64.86989162783648]
Generative AI(Gen AI)の応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の変化の可能性は、この技術の潜在的なリスクについて活発に議論を巻き起こし、より厳格な規制を要求した。
この規制は、オープンソースの生成AIの誕生する分野を危険にさらす可能性がある。
論文 参考訳(メタデータ) (2024-05-14T13:37:36Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Hazard Management: A framework for the systematic management of root
causes for AI risks [0.0]
本稿ではAI Hazard Management(AIHM)フレームワークを紹介する。
AIのハザードを体系的に識別し、評価し、治療するための構造化されたプロセスを提供する。
総合的な最先端分析からAIハザードリストを構築する。
論文 参考訳(メタデータ) (2023-10-25T15:55:50Z) - Model evaluation for extreme risks [46.53170857607407]
AI開発のさらなる進歩は、攻撃的なサイバー能力や強力な操作スキルのような極端なリスクを引き起こす能力につながる可能性がある。
モデル評価が極端なリスクに対処するために重要である理由を説明します。
論文 参考訳(メタデータ) (2023-05-24T16:38:43Z) - A Brief Overview of AI Governance for Responsible Machine Learning
Systems [3.222802562733787]
このポジションペーパーは、AIの責任ある使用を監督するように設計されたフレームワークである、AIガバナンスの簡単な紹介を提案する。
AIの確率的性質のため、それに関連するリスクは従来の技術よりもはるかに大きい。
論文 参考訳(メタデータ) (2022-11-21T23:48:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。