論文の概要: Stakeholder Participation for Responsible AI Development: Disconnects Between Guidance and Current Practice
- arxiv url: http://arxiv.org/abs/2506.09873v1
- Date: Wed, 11 Jun 2025 15:43:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:03.105724
- Title: Stakeholder Participation for Responsible AI Development: Disconnects Between Guidance and Current Practice
- Title(参考訳): 責任あるAI開発のためのステークホルダー参加:ガイダンスと現在の実践の切り離し
- Authors: Emma Kallina, Thomas Bohné, Jat Singh,
- Abstract要約: 責任AI(rAI)ガイダンスは、AI開発中のステークホルダー関与(SHI)を促進する。
Shiはすでに商用ソフトウェア開発で一般的ですが、潜在的に異なる目標があります。
本研究は,確立された Shi の実践が rAI 活動および潜在的な切断にどの程度貢献できるかを明らかにする。
- 参考スコア(独自算出の注目度): 0.6144680854063939
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Responsible AI (rAI) guidance increasingly promotes stakeholder involvement (SHI) during AI development. At the same time, SHI is already common in commercial software development, but with potentially different foci. This study clarifies the extent to which established SHI practices are able to contribute to rAI efforts as well as potential disconnects -- essential insights to inform and tailor future interventions that further shift industry practice towards rAI efforts. First, we analysed 56 rAI guidance documents to identify why SHI is recommended (i.e. its expected benefits for rAI) and uncovered goals such as redistributing power, improving socio-technical understandings, anticipating risks, and enhancing public oversight. To understand why and how SHI is currently practised in commercial settings, we then conducted an online survey (n=130) and semi-structured interviews (n=10) with AI practitioners. Our findings reveal that SHI in practice is primarily driven by commercial priorities (e.g. customer value, compliance) and several factors currently discourage more rAI-aligned SHI practices. This suggests that established SHI practices are largely not contributing to rAI efforts. To address this disconnect, we propose interventions and research opportunities to advance rAI development in practice.
- Abstract(参考訳): 責任AI(rAI)ガイダンスは、AI開発中のステークホルダー関与(SHI)を促進する。
同時にShishiは、商用ソフトウェア開発ではすでに一般的だが、潜在的に異なる焦点を持つ。
本研究は、確立されたShiの実践がrAI活動にどの程度貢献できるか、また、今後の介入を通知し、調整するための重要な洞察として、rAI活動にどのように貢献できるかを明らかにする。
まず、なぜ Shi が推奨されるのか(すなわち rAI に期待されている利益)を明らかにするための56の rAI ガイダンス文書を分析し、また、再分配力、社会技術理解の向上、リスク予測、公衆の監視強化など、未確認の目標を明らかにした。
そこで我々はAI実践者とのオンライン調査(n=130)と半構造化インタビュー(n=10)を行った。
以上の結果から, Shiの実践は商業的優先(顧客価値,コンプライアンスなど)が中心であり,現在よりrAIに整合した Shi の実践を阻害している要因がいくつかあることが判明した。
これは、確立された Shi の実践が rAI の取り組みに大きく貢献していないことを示唆している。
本稿では,この切断に対処するため,実際にrAI開発を進めるための介入と研究の機会を提案する。
関連論文リスト
- Transparent AI: The Case for Interpretability and Explainability [0.1505692475853115]
多様な分野にわたる実践的解釈可能性アプリケーションから学んだ重要な洞察と教訓を提示する。
本稿では、AI成熟度のさまざまな段階において、組織に適した実行可能な戦略と実装ガイダンスを提供する。
論文 参考訳(メタデータ) (2025-07-31T13:22:14Z) - Open and Sustainable AI: challenges, opportunities and the road ahead in the life sciences [50.9036832382286]
我々は、AI研究成果に対する信頼の侵食の増加についてレビューする。
我々は、AIエコシステムの断片化されたコンポーネントと、OpenとSustainable AIを最大限にサポートするためのガイドパスの欠如について論じる。
私たちの研究は、研究者と関連するAIリソースを結びつけることで、持続可能な、再利用可能な、透過的なAIの実装を容易にします。
論文 参考訳(メタデータ) (2025-05-22T12:52:34Z) - Bridging the Gap: Integrating Ethics and Environmental Sustainability in AI Research and Practice [57.94036023167952]
我々は、AIの倫理的影響を研究するための努力は、その環境への影響を評価するものと相まって行われるべきであると論じる。
我々は,AI研究と実践にAI倫理と持続可能性を統合するためのベストプラクティスを提案する。
論文 参考訳(メタデータ) (2025-04-01T13:53:11Z) - Diversity and Inclusion in AI for Recruitment: Lessons from Industry Workshop [44.807030880787345]
本研究では,AIによるオンライン求人システムにおけるD&Iガイドラインの実践的適用について検討する。
我々は多国籍採用企業と共同設計ワークショップを開催した。
この結果は、AIプラクティスの効果的な採用を保証するために、カスタマイズされたD&Iガイドラインと継続的なサポートを開発することを示唆している。
論文 参考訳(メタデータ) (2024-11-09T04:45:47Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - The Narrow Depth and Breadth of Corporate Responsible AI Research [3.364518262921329]
私たちは、AI企業の大多数が、この重要なAIのサブフィールドにおいて、限られた、あるいは全く関与していないことを示している。
主要なAI企業は、従来のAI研究に比べて、責任あるAI研究のアウトプットが著しく低い。
当社の結果は、業界が責任あるAI研究を公然と行う必要性を浮き彫りにしたものだ。
論文 参考訳(メタデータ) (2024-05-20T17:26:43Z) - Now, Later, and Lasting: Ten Priorities for AI Research, Policy, and Practice [63.20307830884542]
今後数十年は、産業革命に匹敵する人類の転換点になるかもしれない。
10年前に立ち上げられたこのプロジェクトは、複数の専門分野の専門家による永続的な研究にコミットしている。
AI技術の短期的および長期的影響の両方に対処する、アクションのための10のレコメンデーションを提供します。
論文 参考訳(メタデータ) (2024-04-06T22:18:31Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。