論文の概要: `It is currently hodgepodge'': Examining AI/ML Practitioners' Challenges
during Co-production of Responsible AI Values
- arxiv url: http://arxiv.org/abs/2307.10221v1
- Date: Fri, 14 Jul 2023 21:57:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-23 11:17:10.159408
- Title: `It is currently hodgepodge'': Examining AI/ML Practitioners' Challenges
during Co-production of Responsible AI Values
- Title(参考訳): 現在Hodgepodge’: 責任あるAI価値の共生産におけるAI/ML実践者の挑戦
- Authors: Rama Adithya Varanasi, Nitesh Goyal
- Abstract要約: 私たちは、AI/MLベースの製品を出荷し、RAIの規範を守りながら、10の組織にまたがる23の個人にインタビューした。
トップダウンとボトムアップの機関構造は、RAIの価値観を維持できないように、異なる役割に対する負担を生み出します。
我々は、包括的で公平なRAI価値実践のための勧告を推薦する。
- 参考スコア(独自算出の注目度): 4.091593765662773
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Recently, the AI/ML research community has indicated an urgent need to
establish Responsible AI (RAI) values and practices as part of the AI/ML
lifecycle. Several organizations and communities are responding to this call by
sharing RAI guidelines. However, there are gaps in awareness, deliberation, and
execution of such practices for multi-disciplinary ML practitioners. This work
contributes to the discussion by unpacking co-production challenges faced by
practitioners as they align their RAI values. We interviewed 23 individuals,
across 10 organizations, tasked to ship AI/ML based products while upholding
RAI norms and found that both top-down and bottom-up institutional structures
create burden for different roles preventing them from upholding RAI values, a
challenge that is further exacerbated when executing conflicted values. We
share multiple value levers used as strategies by the practitioners to resolve
their challenges. We end our paper with recommendations for inclusive and
equitable RAI value-practices, creating supportive organizational structures
and opportunities to further aid practitioners.
- Abstract(参考訳): 最近、AI/ML研究コミュニティは、AI/MLライフサイクルの一部としてResponsible AI(RAI)の価値とプラクティスを確立する緊急の必要性を示している。
raiガイドラインを共有することで、いくつかの組織やコミュニティがこの呼びかけに対応しています。
しかし、複数の学際的なML実践者に対する意識、熟考、実践にはギャップがある。
この研究は、実践者がraiの価値を合わせながら直面する共同生産の課題を解き放ち、議論に寄与する。
私たちは、10の組織にまたがって23の個人にインタビューを行い、ai/mlベースの製品を出荷し、raiの規範を維持しながら、トップダウンとボトムアップの両方の組織構造が、raiの価値観の保持を妨げるさまざまな役割の負担を生み出すことを発見した。
課題を解決するために、実践者が戦略として使用する複数の価値レバーを共有します。
最後に,包括的かつ公平なrai価値実践を推奨し,支援的な組織構造と実践者支援の機会を創出する。
関連論文リスト
- The "Who'', "What'', and "How'' of Responsible AI Governance: A Systematic Review and Meta-Analysis of (Actor, Stage)-Specific Tools [10.439710801147033]
我々は、責任あるAIツールの現状を体系的にレビューし、包括的メタ分析する。
その結果、ステークホルダーの役割とライフサイクルステージの間に大きな不均衡がみられた。
責任を負うAIのためのフレームワークやツールが無数にあるにも関わらず、組織内の誰で、そのツールが適用するAIライフサイクルに精通しているかは、いまだに不明である。
論文 参考訳(メタデータ) (2025-02-18T21:31:31Z) - Who is Responsible? The Data, Models, Users or Regulations? Responsible Generative AI for a Sustainable Future [8.141210005338099]
責任人工知能(Responsible Artificial Intelligence, RAI)は、AIシステムの開発と展開における倫理的懸念に対処するための重要なフレームワークとして登場した。
本稿では、ChatGPT後における倫理的、透明性があり、説明可能なAIシステムを実装する上での課題と機会について考察する。
論文 参考訳(メタデータ) (2025-01-15T20:59:42Z) - Responsible Artificial Intelligence (RAI) in U.S. Federal Government : Principles, Policies, and Practices [0.0]
人工知能(AI)と機械学習(ML)は、過去数十年で大きな進歩を遂げてきた。
AI/MLの急速な成長と、多くの民間および公共セクターのアプリケーションへの普及は成功したが、規制当局にとって新たな課題と障害が開かれた。
新たな意思決定AI/MLシステムには、人間による関与がほとんど、あるいはほとんど必要とされないため、これらのシステムの責任を負うことを保証する必要が迫られている。
論文 参考訳(メタデータ) (2025-01-12T16:06:37Z) - Can We Trust AI Agents? An Experimental Study Towards Trustworthy LLM-Based Multi-Agent Systems for AI Ethics [10.084913433923566]
本研究では,信頼度向上技術が倫理的AI出力生成に与える影響について検討する。
我々はLLM-BMASのプロトタイプを設計し、エージェントは現実世界の倫理的AI問題に関する構造化された議論を行う。
議論では、バイアス検出、透明性、説明責任、ユーザの同意、コンプライアンス、公正性評価、EU AI Actコンプライアンスといった用語が明らかにされている。
論文 参考訳(メタデータ) (2024-10-25T20:17:59Z) - Attack Atlas: A Practitioner's Perspective on Challenges and Pitfalls in Red Teaming GenAI [52.138044013005]
生成AI、特に大規模言語モデル(LLM)は、製品アプリケーションにますます統合される。
新たな攻撃面と脆弱性が出現し、自然言語やマルチモーダルシステムにおける敵の脅威に焦点を当てる。
レッドチーム(英語版)はこれらのシステムの弱点を積極的に識別する上で重要となり、ブルーチーム(英語版)はそのような敵の攻撃から保護する。
この研究は、生成AIシステムの保護のための学術的な洞察と実践的なセキュリティ対策のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-09-23T10:18:10Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - TeamLoRA: Boosting Low-Rank Adaptation with Expert Collaboration and Competition [61.91764883512776]
我々は,専門家のためのコラボレーション・コンペティション・モジュールからなる,革新的なPEFT手法であるTeamLoRAを紹介する。
そうすることで、TeamLoRAは専門家を"チーム"として内部のコラボレーションや競争に結び付け、マルチタスク学習のためのより高速で正確なPEFTパラダイムを可能にします。
論文 参考訳(メタデータ) (2024-08-19T09:58:53Z) - Using Case Studies to Teach Responsible AI to Industry Practitioners [8.152080071643685]
本稿では,対話型ケーススタディを用いた利害関係者第一の教育的アプローチを提案し,組織的・実践的エンゲージメントを育成する。
グローバルなテクノロジ企業であるMetaとのパートナーシップを詳述し、さまざまな企業のオーディエンスにRAIワークショップを共同開発して提供しています。
論文 参考訳(メタデータ) (2024-07-19T22:06:06Z) - A Survey on Large Language Models for Critical Societal Domains: Finance, Healthcare, and Law [65.87885628115946]
大規模言語モデル(LLM)は、金融、医療、法律の展望に革命をもたらしている。
我々は、医療における診断・治療方法論の強化、財務分析の革新、法的解釈・コンプライアンス戦略の精査におけるLCMの役割を強調した。
これらの分野におけるLLMアプリケーションの倫理を批判的に検討し、既存の倫理的懸念と透明で公平で堅牢なAIシステムの必要性を指摘した。
論文 参考訳(メタデータ) (2024-05-02T22:43:02Z) - Large Multimodal Agents: A Survey [78.81459893884737]
大規模言語モデル(LLM)は、テキストベースのAIエージェントのパワーで優れたパフォーマンスを実現している。
LLMを利用したAIエージェントをマルチモーダルドメインに拡張することに焦点を当てた、新たな研究トレンドがある。
本総説は, この急速に発展する分野において, 今後の研究に有用な洞察とガイドラインを提供することを目的としている。
論文 参考訳(メタデータ) (2024-02-23T06:04:23Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。