論文の概要: Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders
- arxiv url: http://arxiv.org/abs/2408.12047v1
- Date: Thu, 22 Aug 2024 00:14:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-23 15:43:39.984584
- Title: Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders
- Title(参考訳): 責任あるAIアーティファクトはステークホルダーのゴールを前進させるか? 法律と市民のステークホルダーが知覚する4つの重要な障壁
- Authors: Anna Kawakami, Daricia Wilkinson, Alexandra Chouldechova,
- Abstract要約: 責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
- 参考スコア(独自算出の注目度): 59.17981603969404
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The responsible AI (RAI) community has introduced numerous processes and artifacts (e.g., Model Cards, Transparency Notes, Data Cards) to facilitate transparency and support the governance of AI systems. While originally designed to scaffold and document AI development processes in technology companies, these artifacts are becoming central components of regulatory compliance under recent regulations such as the EU AI Act. Much prior work has explored the design of new RAI artifacts or their use by practitioners within technology companies. However, as RAI artifacts begin to play key roles in enabling external oversight, it becomes critical to understand how stakeholders--particularly those situated outside of technology companies who govern and audit industry AI deployments--perceive the efficacy of RAI artifacts. In this study, we conduct semi-structured interviews and design activities with 19 government, legal, and civil society stakeholders who inform policy and advocacy around responsible AI efforts. While participants believe that RAI artifacts are a valuable contribution to the broader AI governance ecosystem, many are concerned about their potential unintended, longer-term impacts on actors outside of technology companies (e.g., downstream end-users, policymakers, civil society stakeholders). We organize these beliefs into four barriers that help explain how RAI artifacts may (inadvertently) reconfigure power relations across civil society, government, and industry, impeding civil society and legal stakeholders' ability to protect downstream end-users from potential AI harms. Participants envision how structural changes, along with changes in how RAI artifacts are designed, used, and governed, could help redirect the role of artifacts to support more collaborative and proactive external oversight of AI systems. We discuss research and policy implications for RAI artifacts.
- Abstract(参考訳): 責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクト(モデルカード、透明性ノート、データカードなど)を導入している。
元々は、テクノロジー企業におけるAI開発プロセスの足場と文書化を目的として設計されたものだが、EU AI Actのような最近の規制の下で、これらのアーティファクトは規制コンプライアンスの中心的なコンポーネントになりつつある。
これまでの多くの作業は、新しいRAIアーティファクトの設計や、技術企業内の実践者による使用について調査してきた。
しかし、AIアーティファクトが外部監視を可能にする上で重要な役割を担い始めるにつれて、利害関係者(特に業界AIデプロイメントを管理し監査する技術企業の外にいるもの)が、AIアーティファクトの有効性をどう理解するかを理解することが重要になる。
本研究では、責任あるAI活動に関する政策や擁護を通知する19の政府、法律、市民社会の利害関係者を対象に、半構造化されたインタビューとデザイン活動を行う。
参加者はRAIアーティファクトがより広範なAIガバナンスエコシステムへの価値ある貢献であると信じているが、多くの人々が、意図しない長期的な影響をテクノロジー企業以外のアクター(下流のエンドユーザ、政策立案者、市民社会のステークホルダーなど)に懸念している。
我々は、これらの信念を4つの障壁にまとめ、RAIアーティファクトが(必然的に)市民社会、政府、産業にまたがる権力関係を再構成し、市民社会と法的な利害関係者が、下流のエンドユーザーを潜在的なAI被害から保護する能力を妨げているかを説明するのに役立ちます。
参加者は、RAIアーティファクトの設計、使用、管理方法の変更とともに、構造的変化がどのようにして、アーティファクトの役割をリダイレクトし、AIシステムのより協力的で積極的な外部監視を支援するのかを想像する。
RAIアーティファクトの研究と政策について論じる。
関連論文リスト
- Assistive AI for Augmenting Human Decision-making [3.379906135388703]
この論文は、人間の監視を維持しながら、AIが意思決定の複雑なプロセスを支援する方法を示している。
私たちのフレームワークの中心は、プライバシ、説明責任、信頼性の原則です。
論文 参考訳(メタデータ) (2024-10-18T10:16:07Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Studying Up Public Sector AI: How Networks of Power Relations Shape Agency Decisions Around AI Design and Use [29.52245155918532]
私たちは、AIツールが代理店で果たす役割について決定する権限と責任を持つ人々について、公共セクターAIを研究します。
私たちの調査結果は、インフラ、法律、社会的要因が、AI設計と採用に関する決定に幅広い利害関係者が関与することに対する障壁や不関心をいかに生み出すかに光を当てています。
論文 参考訳(メタデータ) (2024-05-21T02:31:26Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Investigating Algorithm Review Boards for Organizational Responsible
Artificial Intelligence Governance [0.16385815610837165]
社内RAIガバナンスの経験について、組織タイプを越えた17のテクニカルコントリビュータにインタビューした。
アルゴリズムレビュー委員会(ARB)と類似のレビュー委員会について,本研究の最初の詳細な知見を要約した。
以上の結果から,既存の内部規制アプローチとリーダシップ購入との統合が,成功の最も重要な要因であることが示唆された。
論文 参考訳(メタデータ) (2024-01-23T20:53:53Z) - An Ethical Framework for Guiding the Development of Affectively-Aware
Artificial Intelligence [0.0]
本稿では、感情認識型AIの倫理的結果(道徳的・倫理的結果)を評価するためのガイドラインを提案する。
我々は,AI開発者による倫理的責任を分離し,そのようなAIをデプロイするエンティティをビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビ
最終的には研究者、開発者、オペレーター、規制当局、法執行機関への勧告で終わります。
論文 参考訳(メタデータ) (2021-07-29T03:57:53Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Where Responsible AI meets Reality: Practitioner Perspectives on
Enablers for shifting Organizational Practices [3.119859292303396]
本稿では,組織文化と構造がAI実践における責任あるイニシアチブの有効性に与える影響を分析するための枠組みについて検討し,提案する。
我々は、業界で働く実践者との半構造化質的なインタビューの結果、共通の課題、倫理的緊張、そして責任あるAIイニシアチブのための効果的なイネーブラーについて調査する。
論文 参考訳(メタデータ) (2020-06-22T15:57:30Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。