論文の概要: `It is currently hodgepodge'': Examining AI/ML Practitioners' Challenges
during Co-production of Responsible AI Values
- arxiv url: http://arxiv.org/abs/2307.10221v1
- Date: Fri, 14 Jul 2023 21:57:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-23 11:17:10.159408
- Title: `It is currently hodgepodge'': Examining AI/ML Practitioners' Challenges
during Co-production of Responsible AI Values
- Title(参考訳): 現在Hodgepodge’: 責任あるAI価値の共生産におけるAI/ML実践者の挑戦
- Authors: Rama Adithya Varanasi, Nitesh Goyal
- Abstract要約: 私たちは、AI/MLベースの製品を出荷し、RAIの規範を守りながら、10の組織にまたがる23の個人にインタビューした。
トップダウンとボトムアップの機関構造は、RAIの価値観を維持できないように、異なる役割に対する負担を生み出します。
我々は、包括的で公平なRAI価値実践のための勧告を推薦する。
- 参考スコア(独自算出の注目度): 4.091593765662773
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Recently, the AI/ML research community has indicated an urgent need to
establish Responsible AI (RAI) values and practices as part of the AI/ML
lifecycle. Several organizations and communities are responding to this call by
sharing RAI guidelines. However, there are gaps in awareness, deliberation, and
execution of such practices for multi-disciplinary ML practitioners. This work
contributes to the discussion by unpacking co-production challenges faced by
practitioners as they align their RAI values. We interviewed 23 individuals,
across 10 organizations, tasked to ship AI/ML based products while upholding
RAI norms and found that both top-down and bottom-up institutional structures
create burden for different roles preventing them from upholding RAI values, a
challenge that is further exacerbated when executing conflicted values. We
share multiple value levers used as strategies by the practitioners to resolve
their challenges. We end our paper with recommendations for inclusive and
equitable RAI value-practices, creating supportive organizational structures
and opportunities to further aid practitioners.
- Abstract(参考訳): 最近、AI/ML研究コミュニティは、AI/MLライフサイクルの一部としてResponsible AI(RAI)の価値とプラクティスを確立する緊急の必要性を示している。
raiガイドラインを共有することで、いくつかの組織やコミュニティがこの呼びかけに対応しています。
しかし、複数の学際的なML実践者に対する意識、熟考、実践にはギャップがある。
この研究は、実践者がraiの価値を合わせながら直面する共同生産の課題を解き放ち、議論に寄与する。
私たちは、10の組織にまたがって23の個人にインタビューを行い、ai/mlベースの製品を出荷し、raiの規範を維持しながら、トップダウンとボトムアップの両方の組織構造が、raiの価値観の保持を妨げるさまざまな役割の負担を生み出すことを発見した。
課題を解決するために、実践者が戦略として使用する複数の価値レバーを共有します。
最後に,包括的かつ公平なrai価値実践を推奨し,支援的な組織構造と実践者支援の機会を創出する。
関連論文リスト
- Can We Trust AI Agents? An Experimental Study Towards Trustworthy LLM-Based Multi-Agent Systems for AI Ethics [10.084913433923566]
本研究では,信頼度向上技術が倫理的AI出力生成に与える影響について検討する。
我々はLLM-BMASのプロトタイプを設計し、エージェントは現実世界の倫理的AI問題に関する構造化された議論を行う。
議論では、バイアス検出、透明性、説明責任、ユーザの同意、コンプライアンス、公正性評価、EU AI Actコンプライアンスといった用語が明らかにされている。
論文 参考訳(メタデータ) (2024-10-25T20:17:59Z) - Attack Atlas: A Practitioner's Perspective on Challenges and Pitfalls in Red Teaming GenAI [52.138044013005]
生成AI、特に大規模言語モデル(LLM)は、製品アプリケーションにますます統合される。
新たな攻撃面と脆弱性が出現し、自然言語やマルチモーダルシステムにおける敵の脅威に焦点を当てる。
レッドチーム(英語版)はこれらのシステムの弱点を積極的に識別する上で重要となり、ブルーチーム(英語版)はそのような敵の攻撃から保護する。
この研究は、生成AIシステムの保護のための学術的な洞察と実践的なセキュリティ対策のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-09-23T10:18:10Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - TeamLoRA: Boosting Low-Rank Adaptation with Expert Collaboration and Competition [61.91764883512776]
我々は,専門家のためのコラボレーション・コンペティション・モジュールからなる,革新的なPEFT手法であるTeamLoRAを紹介する。
そうすることで、TeamLoRAは専門家を"チーム"として内部のコラボレーションや競争に結び付け、マルチタスク学習のためのより高速で正確なPEFTパラダイムを可能にします。
論文 参考訳(メタデータ) (2024-08-19T09:58:53Z) - Using Case Studies to Teach Responsible AI to Industry Practitioners [8.152080071643685]
我々は、対話型ケーススタディを用いて、組織的・実践的なエンゲージメントとRAI(Responsible AI)の先進的学習を実現する新しい利害関係者第一の教育手法を提案する。
評価の結果,ワークショップの参加者は,作業にRAIを適用することに対する理解とモチベーションに肯定的な変化があることが示唆された。
論文 参考訳(メタデータ) (2024-07-19T22:06:06Z) - A Survey on Large Language Models for Critical Societal Domains: Finance, Healthcare, and Law [65.87885628115946]
大規模言語モデル(LLM)は、金融、医療、法律の展望に革命をもたらしている。
我々は、医療における診断・治療方法論の強化、財務分析の革新、法的解釈・コンプライアンス戦略の精査におけるLCMの役割を強調した。
これらの分野におけるLLMアプリケーションの倫理を批判的に検討し、既存の倫理的懸念と透明で公平で堅牢なAIシステムの必要性を指摘した。
論文 参考訳(メタデータ) (2024-05-02T22:43:02Z) - Large Multimodal Agents: A Survey [78.81459893884737]
大規模言語モデル(LLM)は、テキストベースのAIエージェントのパワーで優れたパフォーマンスを実現している。
LLMを利用したAIエージェントをマルチモーダルドメインに拡張することに焦点を当てた、新たな研究トレンドがある。
本総説は, この急速に発展する分野において, 今後の研究に有用な洞察とガイドラインを提供することを目的としている。
論文 参考訳(メタデータ) (2024-02-23T06:04:23Z) - Towards Equitable Agile Research and Development of AI and Robotics [0.0]
本稿では,広く普及している研究開発(R&D)プロジェクトマネジメント手法を組織的エクイティ能力の構築に適用するための枠組みを提案する。
プロジェクトチームが、最も有望なプラクティス、スキルセット、組織文化、権利に基づく公平さ、公平性、説明責任、倫理的問題を検出し、対処する手法を組織し、運用する方法を説明します。
論文 参考訳(メタデータ) (2024-02-13T06:13:17Z) - POLARIS: A framework to guide the development of Trustworthy AI systems [3.02243271391691]
ハイレベルなAI倫理原則と、AI専門家のための低レベルな具体的なプラクティスの間には、大きなギャップがある。
我々は、理論と実践のギャップを埋めるために設計された、信頼に値するAIのための新しい総合的なフレームワークを開発する。
私たちの目標は、AIプロフェッショナルが信頼できるAIの倫理的側面を確実にナビゲートできるようにすることです。
論文 参考訳(メタデータ) (2024-02-08T01:05:16Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。