論文の概要: Investigating Algorithm Review Boards for Organizational Responsible
Artificial Intelligence Governance
- arxiv url: http://arxiv.org/abs/2402.01691v1
- Date: Tue, 23 Jan 2024 20:53:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-11 16:37:24.219782
- Title: Investigating Algorithm Review Boards for Organizational Responsible
Artificial Intelligence Governance
- Title(参考訳): 組織的責任を持つ人工知能ガバナンスのためのアルゴリズムレビューボードの検討
- Authors: Emily Hadley, Alan Blatecky, and Megan Comfort
- Abstract要約: 社内RAIガバナンスの経験について、組織タイプを越えた17のテクニカルコントリビュータにインタビューした。
アルゴリズムレビュー委員会(ARB)と類似のレビュー委員会について,本研究の最初の詳細な知見を要約した。
以上の結果から,既存の内部規制アプローチとリーダシップ購入との統合が,成功の最も重要な要因であることが示唆された。
- 参考スコア(独自算出の注目度): 0.16385815610837165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Organizations including companies, nonprofits, governments, and academic
institutions are increasingly developing, deploying, and utilizing artificial
intelligence (AI) tools. Responsible AI (RAI) governance approaches at
organizations have emerged as important mechanisms to address potential AI
risks and harms. In this work, we interviewed 17 technical contributors across
organization types (Academic, Government, Industry, Nonprofit) and sectors
(Finance, Health, Tech, Other) about their experiences with internal RAI
governance. Our findings illuminated the variety of organizational definitions
of RAI and accompanying internal governance approaches. We summarized the first
detailed findings on algorithm review boards (ARBs) and similar review
committees in practice, including their membership, scope, and measures of
success. We confirmed known robust model governance in finance sectors and
revealed extensive algorithm and AI governance with ARB-like review boards in
health sectors. Our findings contradict the idea that Institutional Review
Boards alone are sufficient for algorithm governance and posit that ARBs are
among the more impactful internal RAI governance approaches. Our results
suggest that integration with existing internal regulatory approaches and
leadership buy-in are among the most important attributes for success and that
financial tensions are the greatest challenge to effective organizational RAI.
We make a variety of suggestions for how organizational partners can learn from
these findings when building their own internal RAI frameworks. We outline
future directions for developing and measuring effectiveness of ARBs and other
internal RAI governance approaches.
- Abstract(参考訳): 企業、非営利団体、政府、学術機関を含む組織は、人工知能(AI)ツールの開発、デプロイ、活用をますます進めている。
組織における責任AI(RAI)ガバナンスアプローチは、潜在的なAIリスクと害に対処するための重要なメカニズムとして現れている。
本研究では,組織タイプ(学術,政府,産業,非営利)とセクター(金融,健康,技術など)にまたがる17人の技術貢献者に対して,内部raiガバナンスの経験についてインタビューを行った。
我々の発見は、RAIの様々な組織的定義と、それに伴う内部ガバナンスのアプローチに照らした。
我々は,アルゴリズムレビュー委員会(arbs)および同様のレビュー委員会において,そのメンバシップ,スコープ,成功の尺度を含む,最初の詳細な調査結果をまとめる。
我々は、金融セクターにおける堅牢なモデルガバナンスを確認し、健康セクターにおけるABBライクなレビューボードによる広範なアルゴリズムとAIガバナンスを明らかにした。
本研究は,システム評価委員会だけではアルゴリズムのガバナンスに十分であるという考えと矛盾し,arbsがより影響力のある内部raiガバナンスアプローチの1つであることを実証する。
以上の結果から,既存の内部規制アプローチとリーダーシップ購入の統合が成功の最も重要な要因であり,効果的な組織的RAIの最大の課題は財政的緊張にあることが示唆された。
私たちは、組織パートナーが自身の内部raiフレームワークを構築する際にこれらの発見からどのように学べるか、様々な提案をしています。
ARBおよび他の内部RAIガバナンスアプローチの開発および評価の今後の方向性について概説する。
関連論文リスト
- Responsible AI in the Global Context: Maturity Model and Survey [0.3613661942047476]
責任AI(Responsible AI, RAI)は、産業、政策立案、学界に重点を置いている。
本研究は、このトピックに関する最も広範な調査の1つを通じて、RAIのグローバルな状況について調査する。
組織におけるRAIの成熟度モデルを定義し、組織的かつ運用的なRAI対策の実施方法のマップを作成します。
論文 参考訳(メタデータ) (2024-10-13T20:04:32Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Achieving Responsible AI through ESG: Insights and Recommendations from Industry Engagement [15.544366555353262]
本研究では、主要な企業が責任あるAI(RAI)と環境、社会、ガバナンス(ESG)の目標をどのように一致させるかを検討する。
RAIとESGの実践との間には強いつながりがあるが、内部のRAI政策と公開との間には大きなギャップがある。
我々は、RAI戦略の強化、透明性の重視、クロスファンクショナルなコラボレーション、既存のESGフレームワークへのシームレスな統合を推奨します。
論文 参考訳(メタデータ) (2024-08-30T05:48:03Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Responsible AI Question Bank: A Comprehensive Tool for AI Risk Assessment [17.026921603767722]
この調査では、さまざまなAIイニシアチブをサポートするために設計された包括的なフレームワークとツールであるResponsible AI (RAI) Question Bankを紹介した。
公正性、透明性、説明責任といったAI倫理原則を構造化された質問形式に統合することで、RAI質問銀行は潜在的なリスクの特定を支援する。
論文 参考訳(メタデータ) (2024-08-02T22:40:20Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Responsible AI Governance: A Systematic Literature Review [8.318630741859113]
本稿では,AIガバナンスに関する既存の文献を検討することを目的とする。
WHOはAIシステムのガバナンスに責任を持ち、WHAT要素は管理されており、WHENガバナンスはAI開発ライフサイクル内で発生し、HOWはフレームワーク、ツール、標準、ポリシー、モデルといった様々なメカニズムによって実行される。
本研究の成果は,RAI原則に沿った包括的ガバナンスモデルの研究・開発の基礎となるものである。
論文 参考訳(メタデータ) (2023-12-18T05:22:36Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。