論文の概要: `It is currently hodgepodge'': Examining AI/ML Practitioners' Challenges
during Co-production of Responsible AI Values
- arxiv url: http://arxiv.org/abs/2307.10221v1
- Date: Fri, 14 Jul 2023 21:57:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-23 11:17:10.159408
- Title: `It is currently hodgepodge'': Examining AI/ML Practitioners' Challenges
during Co-production of Responsible AI Values
- Title(参考訳): 現在Hodgepodge’: 責任あるAI価値の共生産におけるAI/ML実践者の挑戦
- Authors: Rama Adithya Varanasi, Nitesh Goyal
- Abstract要約: 私たちは、AI/MLベースの製品を出荷し、RAIの規範を守りながら、10の組織にまたがる23の個人にインタビューした。
トップダウンとボトムアップの機関構造は、RAIの価値観を維持できないように、異なる役割に対する負担を生み出します。
我々は、包括的で公平なRAI価値実践のための勧告を推薦する。
- 参考スコア(独自算出の注目度): 4.091593765662773
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Recently, the AI/ML research community has indicated an urgent need to
establish Responsible AI (RAI) values and practices as part of the AI/ML
lifecycle. Several organizations and communities are responding to this call by
sharing RAI guidelines. However, there are gaps in awareness, deliberation, and
execution of such practices for multi-disciplinary ML practitioners. This work
contributes to the discussion by unpacking co-production challenges faced by
practitioners as they align their RAI values. We interviewed 23 individuals,
across 10 organizations, tasked to ship AI/ML based products while upholding
RAI norms and found that both top-down and bottom-up institutional structures
create burden for different roles preventing them from upholding RAI values, a
challenge that is further exacerbated when executing conflicted values. We
share multiple value levers used as strategies by the practitioners to resolve
their challenges. We end our paper with recommendations for inclusive and
equitable RAI value-practices, creating supportive organizational structures
and opportunities to further aid practitioners.
- Abstract(参考訳): 最近、AI/ML研究コミュニティは、AI/MLライフサイクルの一部としてResponsible AI(RAI)の価値とプラクティスを確立する緊急の必要性を示している。
raiガイドラインを共有することで、いくつかの組織やコミュニティがこの呼びかけに対応しています。
しかし、複数の学際的なML実践者に対する意識、熟考、実践にはギャップがある。
この研究は、実践者がraiの価値を合わせながら直面する共同生産の課題を解き放ち、議論に寄与する。
私たちは、10の組織にまたがって23の個人にインタビューを行い、ai/mlベースの製品を出荷し、raiの規範を維持しながら、トップダウンとボトムアップの両方の組織構造が、raiの価値観の保持を妨げるさまざまな役割の負担を生み出すことを発見した。
課題を解決するために、実践者が戦略として使用する複数の価値レバーを共有します。
最後に,包括的かつ公平なrai価値実践を推奨し,支援的な組織構造と実践者支援の機会を創出する。
関連論文リスト
- A Survey on Large Language Models for Critical Societal Domains: Finance, Healthcare, and Law [65.87885628115946]
大規模言語モデル(LLM)は、金融、医療、法律の展望に革命をもたらしている。
我々は、医療における診断・治療方法論の強化、財務分析の革新、法的解釈・コンプライアンス戦略の精査におけるLCMの役割を強調した。
これらの分野におけるLLMアプリケーションの倫理を批判的に検討し、既存の倫理的懸念と透明で公平で堅牢なAIシステムの必要性を指摘した。
論文 参考訳(メタデータ) (2024-05-02T22:43:02Z) - CulturalTeaming: AI-Assisted Interactive Red-Teaming for Challenging LLMs' (Lack of) Multicultural Knowledge [69.82940934994333]
我々は、人間とAIのコラボレーションを活用して、挑戦的な評価データセットを構築するインタラクティブなレッドチームシステムであるCulturalTeamingを紹介する。
我々の研究は、CulturalTeamingの様々なAI支援モードが、文化的な質問の作成においてアノテータを支援することを明らかにした。
CULTURALBENCH-V0.1は、ユーザのリピートの試みにより、コンパクトだが高品質な評価データセットである。
論文 参考訳(メタデータ) (2024-04-10T00:25:09Z) - Navigating Fairness: Practitioners' Understanding, Challenges, and Strategies in AI/ML Development [11.846525587357489]
公正なAI/MLを開発する上で、AI実践者の見解と経験を理解することに焦点を当てた実証的研究の欠如がある。
我々は,「フェアAI/ML」とは何か,という理解を深めるため,22人のAI実践者と半構造化インタビューを行った。
我々は,AI実践者の「フェアAI/ML」理解と,その開発における課題との関係を示す枠組みを開発した。
論文 参考訳(メタデータ) (2024-03-21T03:44:59Z) - Large Multimodal Agents: A Survey [78.81459893884737]
大規模言語モデル(LLM)は、テキストベースのAIエージェントのパワーで優れたパフォーマンスを実現している。
LLMを利用したAIエージェントをマルチモーダルドメインに拡張することに焦点を当てた、新たな研究トレンドがある。
本総説は, この急速に発展する分野において, 今後の研究に有用な洞察とガイドラインを提供することを目的としている。
論文 参考訳(メタデータ) (2024-02-23T06:04:23Z) - Towards Equitable Agile Research and Development of AI and Robotics [0.0]
本稿では,広く普及している研究開発(R&D)プロジェクトマネジメント手法を組織的エクイティ能力の構築に適用するための枠組みを提案する。
プロジェクトチームが、最も有望なプラクティス、スキルセット、組織文化、権利に基づく公平さ、公平性、説明責任、倫理的問題を検出し、対処する手法を組織し、運用する方法を説明します。
論文 参考訳(メタデータ) (2024-02-13T06:13:17Z) - POLARIS: A framework to guide the development of Trustworthy AI systems [3.02243271391691]
ハイレベルなAI倫理原則と、AI専門家のための低レベルな具体的なプラクティスの間には、大きなギャップがある。
我々は、理論と実践のギャップを埋めるために設計された、信頼に値するAIのための新しい総合的なフレームワークを開発する。
私たちの目標は、AIプロフェッショナルが信頼できるAIの倫理的側面を確実にナビゲートできるようにすることです。
論文 参考訳(メタデータ) (2024-02-08T01:05:16Z) - Red-Teaming for Generative AI: Silver Bullet or Security Theater? [48.14185138002871]
我々は、AI産業における最近の赤チーム活動の事例を特定し、関連する研究文献を広範囲に調査し、AI赤チーム実践のスコープ、構造、基準を特徴づける。
分析の結果,活動の目的,評価対象のアーティファクト,活動の実施状況,その結果の判断など,AIの事前の方法と実践が複数の軸に沿って分散していることが判明した。
我々は、レッドチーム化は、GenAIモデルの行動改善を目的とした幅広い活動と態度を特徴付ける上で、価値ある大胆なアイデアであるかもしれないと論じる。
論文 参考訳(メタデータ) (2024-01-29T05:46:14Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Autonomous Reinforcement Learning: Formalism and Benchmarking [106.25788536376007]
人間や動物が行うような現実世界の具体的学習は、連続的で非エポゾディックな世界にある。
RLの一般的なベンチマークタスクはエピソジックであり、試行錯誤によってエージェントに複数の試行を行う環境がリセットされる。
この相違は、擬似環境向けに開発されたRLアルゴリズムを現実世界のプラットフォーム上で実行しようとする場合、大きな課題となる。
論文 参考訳(メタデータ) (2021-12-17T16:28:06Z) - Where Responsible AI meets Reality: Practitioner Perspectives on
Enablers for shifting Organizational Practices [3.119859292303396]
本稿では,組織文化と構造がAI実践における責任あるイニシアチブの有効性に与える影響を分析するための枠組みについて検討し,提案する。
我々は、業界で働く実践者との半構造化質的なインタビューの結果、共通の課題、倫理的緊張、そして責任あるAIイニシアチブのための効果的なイネーブラーについて調査する。
論文 参考訳(メタデータ) (2020-06-22T15:57:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。