論文の概要: Investigating Algorithm Review Boards for Organizational Responsible
Artificial Intelligence Governance
- arxiv url: http://arxiv.org/abs/2402.01691v1
- Date: Tue, 23 Jan 2024 20:53:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-11 16:37:24.219782
- Title: Investigating Algorithm Review Boards for Organizational Responsible
Artificial Intelligence Governance
- Title(参考訳): 組織的責任を持つ人工知能ガバナンスのためのアルゴリズムレビューボードの検討
- Authors: Emily Hadley, Alan Blatecky, and Megan Comfort
- Abstract要約: 社内RAIガバナンスの経験について、組織タイプを越えた17のテクニカルコントリビュータにインタビューした。
アルゴリズムレビュー委員会(ARB)と類似のレビュー委員会について,本研究の最初の詳細な知見を要約した。
以上の結果から,既存の内部規制アプローチとリーダシップ購入との統合が,成功の最も重要な要因であることが示唆された。
- 参考スコア(独自算出の注目度): 0.16385815610837165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Organizations including companies, nonprofits, governments, and academic
institutions are increasingly developing, deploying, and utilizing artificial
intelligence (AI) tools. Responsible AI (RAI) governance approaches at
organizations have emerged as important mechanisms to address potential AI
risks and harms. In this work, we interviewed 17 technical contributors across
organization types (Academic, Government, Industry, Nonprofit) and sectors
(Finance, Health, Tech, Other) about their experiences with internal RAI
governance. Our findings illuminated the variety of organizational definitions
of RAI and accompanying internal governance approaches. We summarized the first
detailed findings on algorithm review boards (ARBs) and similar review
committees in practice, including their membership, scope, and measures of
success. We confirmed known robust model governance in finance sectors and
revealed extensive algorithm and AI governance with ARB-like review boards in
health sectors. Our findings contradict the idea that Institutional Review
Boards alone are sufficient for algorithm governance and posit that ARBs are
among the more impactful internal RAI governance approaches. Our results
suggest that integration with existing internal regulatory approaches and
leadership buy-in are among the most important attributes for success and that
financial tensions are the greatest challenge to effective organizational RAI.
We make a variety of suggestions for how organizational partners can learn from
these findings when building their own internal RAI frameworks. We outline
future directions for developing and measuring effectiveness of ARBs and other
internal RAI governance approaches.
- Abstract(参考訳): 企業、非営利団体、政府、学術機関を含む組織は、人工知能(AI)ツールの開発、デプロイ、活用をますます進めている。
組織における責任AI(RAI)ガバナンスアプローチは、潜在的なAIリスクと害に対処するための重要なメカニズムとして現れている。
本研究では,組織タイプ(学術,政府,産業,非営利)とセクター(金融,健康,技術など)にまたがる17人の技術貢献者に対して,内部raiガバナンスの経験についてインタビューを行った。
我々の発見は、RAIの様々な組織的定義と、それに伴う内部ガバナンスのアプローチに照らした。
我々は,アルゴリズムレビュー委員会(arbs)および同様のレビュー委員会において,そのメンバシップ,スコープ,成功の尺度を含む,最初の詳細な調査結果をまとめる。
我々は、金融セクターにおける堅牢なモデルガバナンスを確認し、健康セクターにおけるABBライクなレビューボードによる広範なアルゴリズムとAIガバナンスを明らかにした。
本研究は,システム評価委員会だけではアルゴリズムのガバナンスに十分であるという考えと矛盾し,arbsがより影響力のある内部raiガバナンスアプローチの1つであることを実証する。
以上の結果から,既存の内部規制アプローチとリーダーシップ購入の統合が成功の最も重要な要因であり,効果的な組織的RAIの最大の課題は財政的緊張にあることが示唆された。
私たちは、組織パートナーが自身の内部raiフレームワークを構築する際にこれらの発見からどのように学べるか、様々な提案をしています。
ARBおよび他の内部RAIガバナンスアプローチの開発および評価の今後の方向性について概説する。
関連論文リスト
- Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - Red-Teaming for Generative AI: Silver Bullet or Security Theater? [48.14185138002871]
我々は、AI産業における最近の赤チーム活動の事例を特定し、関連する研究文献を広範囲に調査し、AI赤チーム実践のスコープ、構造、基準を特徴づける。
分析の結果,活動の目的,評価対象のアーティファクト,活動の実施状況,その結果の判断など,AIの事前の方法と実践が複数の軸に沿って分散していることが判明した。
我々は、レッドチーム化は、GenAIモデルの行動改善を目的とした幅広い活動と態度を特徴付ける上で、価値ある大胆なアイデアであるかもしれないと論じる。
論文 参考訳(メタデータ) (2024-01-29T05:46:14Z) - AI auditing: The Broken Bus on the Road to AI Accountability [1.9758196889515185]
「AI監査」エコシステムは泥だらけで不正確で、様々な概念を掘り下げて、実践に関わるステークホルダーをマップアウトするのは困難です。
まず、規制当局、法律事務所、市民社会、ジャーナリズム、アカデミック、コンサルティング機関による現在のAI監査の実践を分類する。
私たちは、AI監査研究のごく一部だけが、望ましい説明責任の結果に変換されていることに気付きました。
論文 参考訳(メタデータ) (2024-01-25T19:00:29Z) - Responsible AI Governance: A Systematic Literature Review [8.318630741859113]
本稿では,AIガバナンスに関する既存の文献を検討することを目的とする。
WHOはAIシステムのガバナンスに責任を持ち、WHAT要素は管理されており、WHENガバナンスはAI開発ライフサイクル内で発生し、HOWはフレームワーク、ツール、標準、ポリシー、モデルといった様々なメカニズムによって実行される。
本研究の成果は,RAI原則に沿った包括的ガバナンスモデルの研究・開発の基礎となるものである。
論文 参考訳(メタデータ) (2023-12-18T05:22:36Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Multi-Scenario Empirical Assessment of Agile Governance Theory: A
Technical Report [55.2480439325792]
アジャイルガバナンス理論(AGT)は、ビジネスユニットやチーム間での責任の組織的連鎖の潜在的なモデルとして登場した。
本研究は,AGTが実際にどのように反映されているかを評価することを目的とする。
論文 参考訳(メタデータ) (2023-07-03T18:50:36Z) - The Role of Large Language Models in the Recognition of Territorial
Sovereignty: An Analysis of the Construction of Legitimacy [67.44950222243865]
Google MapsやLarge Language Models (LLM)のような技術ツールは、しばしば公平で客観的であると見なされる。
我々は、クリミア、ウェストバンク、トランスニトリアの3つの論争領域の事例を、ウィキペディアの情報と国連の決議に対するChatGPTの反応を比較して強調する。
論文 参考訳(メタデータ) (2023-03-17T08:46:49Z) - The Equitable AI Research Roundtable (EARR): Towards Community-Based
Decision Making in Responsible AI Development [4.1986677342209004]
The Equitable AI Research Roundtableの最初の評価について報告する。
EARRは、大手テック企業、非営利団体、NGO研究機関、大学と共同で設立された。
FAccTコミュニティの懸念に特に関係するEARRの運用方法に関する3つの原則を概説する。
論文 参考訳(メタデータ) (2023-03-14T18:57:20Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - AI Governance for Businesses [2.072259480917207]
データを有効に活用し、AI関連のコストとリスクを最小限にすることで、AIを活用することを目指している。
この作業では、AIプロダクトをシステムとみなし、機械学習(ML)モデルによって(トレーニング)データを活用する重要な機能が提供される。
我々のフレームワークは、AIガバナンスを4次元に沿ってデータガバナンス、(ML)モデル、(AI)システムに分解します。
論文 参考訳(メタデータ) (2020-11-20T22:31:37Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。