論文の概要: The "Who'', "What'', and "How'' of Responsible AI Governance: A Systematic Review and Meta-Analysis of (Actor, Stage)-Specific Tools
- arxiv url: http://arxiv.org/abs/2502.13294v1
- Date: Tue, 18 Feb 2025 21:31:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-21 13:23:53.282401
- Title: The "Who'', "What'', and "How'' of Responsible AI Governance: A Systematic Review and Meta-Analysis of (Actor, Stage)-Specific Tools
- Title(参考訳): Who', "What', "How' of Responsible AI Governance":(アクター,ステージ)の体系的レビューとメタ分析
- Authors: Blaine Kuehnert, Rachel M. Kim, Jodi Forlizzi, Hoda Heidari,
- Abstract要約: 我々は、責任あるAIツールの現状を体系的にレビューし、包括的メタ分析する。
その結果、ステークホルダーの役割とライフサイクルステージの間に大きな不均衡がみられた。
責任を負うAIのためのフレームワークやツールが無数にあるにも関わらず、組織内の誰で、そのツールが適用するAIライフサイクルに精通しているかは、いまだに不明である。
- 参考スコア(独自算出の注目度): 10.439710801147033
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The implementation of responsible AI in an organization is inherently complex due to the involvement of multiple stakeholders, each with their unique set of goals and responsibilities across the entire AI lifecycle. These responsibilities are often ambiguously defined and assigned, leading to confusion, miscommunication, and inefficiencies. Even when responsibilities are clearly defined and assigned to specific roles, the corresponding AI actors lack effective tools to support their execution. Toward closing these gaps, we present a systematic review and comprehensive meta-analysis of the current state of responsible AI tools, focusing on their alignment with specific stakeholder roles and their responsibilities in various AI lifecycle stages. We categorize over 220 tools according to AI actors and stages they address. Our findings reveal significant imbalances across the stakeholder roles and lifecycle stages addressed. The vast majority of available tools have been created to support AI designers and developers specifically during data-centric and statistical modeling stages while neglecting other roles such as institutional leadership, deployers, end-users, and impacted communities, and stages such as value proposition and deployment. The uneven distribution we describe here highlights critical gaps that currently exist in responsible AI governance research and practice. Our analysis reveals that despite the myriad of frameworks and tools for responsible AI, it remains unclear \emph{who} within an organization and \emph{when} in the AI lifecycle a tool applies. Furthermore, existing tools are rarely validated, leaving critical gaps in their usability and effectiveness. These gaps provide a starting point for researchers and practitioners to create more effective and holistic approaches to responsible AI development and governance.
- Abstract(参考訳): 組織における責任あるAIの実装は、複数の利害関係者の関与により本質的に複雑で、それぞれがAIライフサイクル全体にわたって独自の目標と責任を持っています。
これらの責任はしばしば曖昧に定義され、割り当てられ、混乱、通信ミス、非効率につながる。
責任が明確に定義され、特定の役割に割り当てられたとしても、対応するAIアクターは、実行をサポートする効果的なツールを欠いている。
これらのギャップを解消するために、私たちは、責任あるAIツールの現状を体系的にレビューし、包括的なメタ分析を行い、さまざまなAIライフサイクルステージにおける特定のステークホルダーの役割と責任との整合性に注目します。
AIアクターとそれに対応するステージによって、220以上のツールを分類します。
その結果、ステークホルダーの役割とライフサイクルステージの間に大きな不均衡がみられた。
利用可能なツールの大部分は、AIデザイナや開発者がデータ中心、統計モデリングの段階で特にサポートし、組織的リーダシップやデプロイ、エンドユーザ、影響のあるコミュニティ、価値提案やデプロイメントといった他の役割を無視している。
ここで説明する不均一な分布は、現在責任あるAIガバナンスの研究と実践に存在している重要なギャップを浮き彫りにする。
我々の分析によると、AIに責任を負うためのフレームワークやツールが無数にあるにもかかわらず、組織内での‘emph{who}’と、ツールが適用するAIライフサイクルにおける‘emph{when}’は依然として不明である。
さらに、既存のツールの検証はめったに行われず、ユーザビリティと有効性に重大なギャップが残されている。
これらのギャップは、研究者や実践者がAI開発とガバナンスの責任を負うためのより効果的で包括的なアプローチを作るための出発点となる。
関連論文リスト
- Characterizing AI Agents for Alignment and Governance [5.765235695557108]
本稿では,自律性,有効性,目標複雑性,汎用性という4つの側面に焦点を当てたAIエージェントの特性について述べる。
このフレームワークを使って、さまざまな種類のAIエージェントのための"エージェントプロファイル"を構築します。
論文 参考訳(メタデータ) (2025-04-30T17:55:48Z) - Perceptions of Agentic AI in Organizations: Implications for Responsible AI and ROI [0.0]
本稿では,エージェントAIの出現する状況の中で,組織がこのようなフレームワークをどのように認識し,適応するかを検討する。
エージェントAIシステムの本質的な複雑さと、その責任ある実装は、責任あるAI次元とテーマフレームワークの複雑な相互接続性に根ざし、組織的適応における重大な課題に寄与している。
論文 参考訳(メタデータ) (2025-04-15T19:15:06Z) - AI Automatons: AI Systems Intended to Imitate Humans [54.19152688545896]
人々の行動、仕事、能力、類似性、または人間性を模倣するように設計されたAIシステムが増加している。
このようなAIシステムの研究、設計、展開、可用性は、幅広い法的、倫理的、その他の社会的影響に対する懸念を喚起している。
論文 参考訳(メタデータ) (2025-03-04T03:55:38Z) - Interactive Agents to Overcome Ambiguity in Software Engineering [61.40183840499932]
AIエージェントは、あいまいで不明確なユーザー指示に基づいて、タスクを自動化するためにますますデプロイされている。
不安定な仮定をし、明確な質問をしないことは、最適以下の結果につながる可能性がある。
対話型コード生成設定において,LLMエージェントが不明瞭な命令を処理する能力について,プロプライエタリモデルとオープンウェイトモデルを評価して検討する。
論文 参考訳(メタデータ) (2025-02-18T17:12:26Z) - Agentic AI: Autonomy, Accountability, and the Algorithmic Society [0.2209921757303168]
エージェント人工知能(AI)は、自律的に長期的な目標を追求し、意思決定を行い、複雑なマルチターンを実行することができる。
この指導的役割から積極的執行課題への移行は、法的、経済的、創造的な枠組みを確立した。
我々は,創造性と知的財産,法的・倫理的考察,競争効果の3つの分野における課題を探求する。
論文 参考訳(メタデータ) (2025-02-01T03:14:59Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Towards AI Accountability Infrastructure: Gaps and Opportunities in AI Audit Tooling [1.841662059101602]
監査は、デプロイされた人工知能(AI)システムのリスクと限界を特定するための重要なメカニズムである。
私たちは利用可能なAI監査ツールの現在のエコシステムをマップします。
我々は、多くのAI監査実践者にとって、ニーズの全範囲を適切にサポートするリソースが不足していると結論付けている。
論文 参考訳(メタデータ) (2024-02-27T19:52:54Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Towards a Responsible AI Metrics Catalogue: A Collection of Metrics for
AI Accountability [28.67753149592534]
本研究は,包括的メトリクスカタログへの取り組みを導入することで,説明責任のギャップを埋めるものである。
我々のカタログは、手続き的整合性を支えるプロセスメトリクス、必要なツールやフレームワークを提供するリソースメトリクス、AIシステムのアウトプットを反映する製品メトリクスを記述しています。
論文 参考訳(メタデータ) (2023-11-22T04:43:16Z) - Responsible AI Pattern Catalogue: A Collection of Best Practices for AI
Governance and Engineering [20.644494592443245]
MLR(Multivocal Literature Review)の結果に基づく応答性AIパターンカタログを提案する。
原則やアルゴリズムのレベルにとどまらず、私たちは、AIシステムのステークホルダーが実際に行なえるパターンに注目して、開発済みのAIシステムがガバナンスとエンジニアリングライフサイクル全体を通して責任を負うようにします。
論文 参考訳(メタデータ) (2022-09-12T00:09:08Z) - Autonomous Open-Ended Learning of Tasks with Non-Stationary
Interdependencies [64.0476282000118]
固有のモチベーションは、目標間のトレーニング時間を適切に割り当てるタスクに依存しないシグナルを生成することが証明されている。
内在的に動機付けられたオープンエンドラーニングの分野におけるほとんどの研究は、目標が互いに独立しているシナリオに焦点を当てているが、相互依存タスクの自律的な獲得を研究するのはごくわずかである。
特に,タスク間の関係に関する情報をアーキテクチャのより高レベルなレベルで組み込むことの重要性を示す。
そして、自律的に取得したシーケンスを格納する新しい学習層を追加することで、前者を拡張する新しいシステムであるH-GRAILを紹介する。
論文 参考訳(メタデータ) (2022-05-16T10:43:01Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Where Responsible AI meets Reality: Practitioner Perspectives on
Enablers for shifting Organizational Practices [3.119859292303396]
本稿では,組織文化と構造がAI実践における責任あるイニシアチブの有効性に与える影響を分析するための枠組みについて検討し,提案する。
我々は、業界で働く実践者との半構造化質的なインタビューの結果、共通の課題、倫理的緊張、そして責任あるAIイニシアチブのための効果的なイネーブラーについて調査する。
論文 参考訳(メタデータ) (2020-06-22T15:57:30Z) - iCORPP: Interleaved Commonsense Reasoning and Probabilistic Planning on
Robots [46.13039152809055]
我々はiCORPPと呼ばれる新しいアルゴリズムを提案し、現在の世界状態を同時に推定し、世界ダイナミクスの推論を行い、タスク指向のコントローラを構築する。
結果は、競合するベースラインと比較して、スケーラビリティ、効率、適応性が大幅に改善されたことを示している。
論文 参考訳(メタデータ) (2020-04-18T17:46:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。