論文の概要: Responsible AI in the Global Context: Maturity Model and Survey
- arxiv url: http://arxiv.org/abs/2410.09985v1
- Date: Sun, 13 Oct 2024 20:04:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 03:53:37.584050
- Title: Responsible AI in the Global Context: Maturity Model and Survey
- Title(参考訳): グローバルコンテキストにおける責任あるAI:成熟度モデルと調査
- Authors: Anka Reuel, Patrick Connolly, Kiana Jafari Meimandi, Shekhar Tewari, Jakub Wiatrak, Dikshita Venkatesh, Mykel Kochenderfer,
- Abstract要約: 責任AI(Responsible AI, RAI)は、産業、政策立案、学界に重点を置いている。
本研究は、このトピックに関する最も広範な調査の1つを通じて、RAIのグローバルな状況について調査する。
組織におけるRAIの成熟度モデルを定義し、組織的かつ運用的なRAI対策の実施方法のマップを作成します。
- 参考スコア(独自算出の注目度): 0.3613661942047476
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Responsible AI (RAI) has emerged as a major focus across industry, policymaking, and academia, aiming to mitigate the risks and maximize the benefits of AI, both on an organizational and societal level. This study explores the global state of RAI through one of the most extensive surveys to date on the topic, surveying 1000 organizations across 20 industries and 19 geographical regions. We define a conceptual RAI maturity model for organizations to map how well they implement organizational and operational RAI measures. Based on this model, the survey assesses the adoption of system-level measures to mitigate identified risks related to, for example, discrimination, reliability, or privacy, and also covers key organizational processes pertaining to governance, risk management, and monitoring and control. The study highlights the expanding AI risk landscape, emphasizing the need for comprehensive risk mitigation strategies. The findings also reveal significant strides towards RAI maturity, but we also identify gaps in RAI implementation that could lead to increased (public) risks from AI systems. This research offers a structured approach to assess and improve RAI practices globally and underscores the critical need for bridging the gap between RAI planning and execution to ensure AI advancement aligns with human welfare and societal benefits.
- Abstract(参考訳): 責任AI(Responsible AI, RAI)は、リスクを軽減し、組織のレベルと社会的レベルの両方においてAIのメリットを最大化することを目的として、産業、政策立案、学界に重点を置いている。
本研究は、20の産業と19の地理的地域にまたがる1000の組織を調査し、このトピックに関する最も広範な調査の1つを通じて、RAIのグローバルな状況を調査した。
組織におけるRAIの成熟度モデルを定義し、組織的かつ運用的なRAI対策の実施方法のマップを作成します。
このモデルに基づいて、この調査は、差別、信頼性、プライバシなどの特定リスクを軽減するためのシステムレベル対策の導入を評価し、ガバナンス、リスク管理、監視および管理に関連する主要な組織プロセスをカバーする。
この研究はAIリスクの展望の拡大を強調し、包括的なリスク軽減戦略の必要性を強調している。
この結果はまた、AIシステムからの(公的な)リスクの増加につながる可能性のあるRAI実装のギャップも明らかになった。
この研究は、RAIの実践を世界規模で評価し、改善するための構造化されたアプローチを提供し、AIの進歩と人間の福祉と社会的利益との整合性を確保するために、RAI計画と実行のギャップを埋める重要な必要性を浮き彫りにしている。
関連論文リスト
- Attack Atlas: A Practitioner's Perspective on Challenges and Pitfalls in Red Teaming GenAI [52.138044013005]
生成AI、特に大規模言語モデル(LLM)は、製品アプリケーションにますます統合される。
新たな攻撃面と脆弱性が出現し、自然言語やマルチモーダルシステムにおける敵の脅威に焦点を当てる。
レッドチーム(英語版)はこれらのシステムの弱点を積極的に識別する上で重要となり、ブルーチーム(英語版)はそのような敵の攻撃から保護する。
この研究は、生成AIシステムの保護のための学術的な洞察と実践的なセキュリティ対策のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-09-23T10:18:10Z) - Trustworthiness in Retrieval-Augmented Generation Systems: A Survey [59.26328612791924]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の開発において、急速に重要なパラダイムへと成長してきた。
本稿では,RAGシステムの信頼性を,事実性,堅牢性,公正性,透明性,説明責任,プライバシの6つの面で評価する統一的な枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-16T09:06:44Z) - Achieving Responsible AI through ESG: Insights and Recommendations from Industry Engagement [15.544366555353262]
本研究では、主要な企業が責任あるAI(RAI)と環境、社会、ガバナンス(ESG)の目標をどのように一致させるかを検討する。
RAIとESGの実践との間には強いつながりがあるが、内部のRAI政策と公開との間には大きなギャップがある。
我々は、RAI戦略の強化、透明性の重視、クロスファンクショナルなコラボレーション、既存のESGフレームワークへのシームレスな統合を推奨します。
論文 参考訳(メタデータ) (2024-08-30T05:48:03Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - EAIRiskBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [47.69642609574771]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
EAIRiskBenchは、EAIシナリオにおける自動物理的リスクアセスメントのための新しいフレームワークである。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Responsible AI Question Bank: A Comprehensive Tool for AI Risk Assessment [17.026921603767722]
この調査では、さまざまなAIイニシアチブをサポートするために設計された包括的なフレームワークとツールであるResponsible AI (RAI) Question Bankを紹介した。
公正性、透明性、説明責任といったAI倫理原則を構造化された質問形式に統合することで、RAI質問銀行は潜在的なリスクの特定を支援する。
論文 参考訳(メタデータ) (2024-08-02T22:40:20Z) - AI Risk Categorization Decoded (AIR 2024): From Government Regulations to Corporate Policies [88.32153122712478]
我々は4階層の分類に分類された314のユニークなリスクカテゴリを特定した。
最高レベルでは、この分類はシステム・アンド・オペレーショナル・リスク、コンテンツ・セーフティ・リスク、社会的なリスク、法と権利のリスクを含む。
我々は、セクター間の情報共有と、生成型AIモデルとシステムのリスク軽減におけるベストプラクティスの推進を通じて、AIの安全性を向上することを目指している。
論文 参考訳(メタデータ) (2024-06-25T18:13:05Z) - Approaching Emergent Risks: An Exploratory Study into Artificial Intelligence Risk Management within Financial Organisations [0.0]
本研究は,これらの実践の探索的研究を通じて,組織におけるAIリスク管理の理解に寄与することを目的とする。
深い洞察は、英国金融セクター内の異なる組織の9人の実践者へのインタビューを通じて得られる。
本研究の成果は,リスク管理フレームワークの即興性と,プロセスレベルと組織レベルの両方において,リスク管理に対する一般的なアプローチのレベルを明らかにするものである。
論文 参考訳(メタデータ) (2024-04-08T20:28:22Z) - Application of the NIST AI Risk Management Framework to Surveillance Technology [1.5442389863546546]
本研究は、NIST AI RMF(National Institute of Standards and Technology's AI Risk Management Framework)の応用と意義を詳細に分析する。
本研究は, 顔認識システムのリスクが高く, 連続性が高いことから, 本分野におけるリスク管理への構造的アプローチの必要性を強調している。
論文 参考訳(メタデータ) (2024-03-22T23:07:11Z) - Investigating Algorithm Review Boards for Organizational Responsible
Artificial Intelligence Governance [0.16385815610837165]
社内RAIガバナンスの経験について、組織タイプを越えた17のテクニカルコントリビュータにインタビューした。
アルゴリズムレビュー委員会(ARB)と類似のレビュー委員会について,本研究の最初の詳細な知見を要約した。
以上の結果から,既存の内部規制アプローチとリーダシップ購入との統合が,成功の最も重要な要因であることが示唆された。
論文 参考訳(メタデータ) (2024-01-23T20:53:53Z) - On the Security Risks of Knowledge Graph Reasoning [71.64027889145261]
我々は、敵の目標、知識、攻撃ベクトルに応じて、KGRに対するセキュリティ脅威を体系化する。
我々は、このような脅威をインスタンス化する新しいタイプの攻撃であるROARを提示する。
ROARに対する潜在的な対策として,潜在的に有毒な知識のフィルタリングや,対向的な拡張クエリによるトレーニングについて検討する。
論文 参考訳(メタデータ) (2023-05-03T18:47:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。