論文の概要: Using Case Studies to Teach Responsible AI to Industry Practitioners
- arxiv url: http://arxiv.org/abs/2407.14686v3
- Date: Fri, 20 Dec 2024 06:02:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-23 16:20:54.893101
- Title: Using Case Studies to Teach Responsible AI to Industry Practitioners
- Title(参考訳): ケーススタディを用いた産業実践者への責任あるAIの教育
- Authors: Julia Stoyanovich, Rodrigo Kreis de Paula, Armanda Lewis, Chloe Zheng,
- Abstract要約: 本稿では,対話型ケーススタディを用いた利害関係者第一の教育的アプローチを提案し,組織的・実践的エンゲージメントを育成する。
グローバルなテクノロジ企業であるMetaとのパートナーシップを詳述し、さまざまな企業のオーディエンスにRAIワークショップを共同開発して提供しています。
- 参考スコア(独自算出の注目度): 8.152080071643685
- License:
- Abstract: Responsible AI (RAI) encompasses the science and practice of ensuring that AI design, development, and use are socially sustainable -- maximizing the benefits of technology while mitigating its risks. Industry practitioners play a crucial role in achieving the objectives of RAI, yet there is a persistent a shortage of consolidated educational resources and effective methods for teaching RAI to practitioners. In this paper, we present a stakeholder-first educational approach using interactive case studies to foster organizational and practitioner-level engagement and enhance learning about RAI. We detail our partnership with Meta, a global technology company, to co-develop and deliver RAI workshops to a diverse company audience. Assessment results show that participants found the workshops engaging and reported an improved understanding of RAI principles, along with increased motivation to apply them in their work.
- Abstract(参考訳): 責任AI(Responsible AI, RAI)は、AIの設計、開発、使用が社会的に持続可能であることを保証する科学と実践を包含する。
産業実践者は, RAIの目的達成において重要な役割を担っているが, 総合的な教育資源の不足や, RAIを実践者に教える効果的な方法が持続的に存在している。
本稿では,対話型ケーススタディを用いた利害関係者主導型教育手法を提案する。
グローバルなテクノロジ企業であるMetaとのパートナーシップを詳述し、さまざまな企業のオーディエンスにRAIワークショップを共同開発して提供しています。
評価の結果、参加者はワークショップに関与し、RAI原則の理解が向上し、仕事に適用する動機が増したことを報告した。
関連論文リスト
- Who is Responsible? The Data, Models, Users or Regulations? Responsible Generative AI for a Sustainable Future [8.141210005338099]
責任人工知能(Responsible Artificial Intelligence, RAI)は、AIシステムの開発と展開における倫理的懸念に対処するための重要なフレームワークとして登場した。
本稿では、ChatGPT後における倫理的、透明性があり、説明可能なAIシステムを実装する上での課題と機会について考察する。
論文 参考訳(メタデータ) (2025-01-15T20:59:42Z) - Diversity and Inclusion in AI for Recruitment: Lessons from Industry Workshop [44.807030880787345]
本研究では,AIによるオンライン求人システムにおけるD&Iガイドラインの実践的適用について検討する。
我々は多国籍採用企業と共同設計ワークショップを開催した。
この結果は、AIプラクティスの効果的な採用を保証するために、カスタマイズされたD&Iガイドラインと継続的なサポートを開発することを示唆している。
論文 参考訳(メタデータ) (2024-11-09T04:45:47Z) - Achieving Responsible AI through ESG: Insights and Recommendations from Industry Engagement [15.544366555353262]
本研究では、主要な企業が責任あるAI(RAI)と環境、社会、ガバナンス(ESG)の目標をどのように一致させるかを検討する。
RAIとESGの実践との間には強いつながりがあるが、内部のRAI政策と公開との間には大きなギャップがある。
我々は、RAI戦略の強化、透明性の重視、クロスファンクショナルなコラボレーション、既存のESGフレームワークへのシームレスな統合を推奨します。
論文 参考訳(メタデータ) (2024-08-30T05:48:03Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - TeamLoRA: Boosting Low-Rank Adaptation with Expert Collaboration and Competition [61.91764883512776]
我々は,専門家のためのコラボレーション・コンペティション・モジュールからなる,革新的なPEFT手法であるTeamLoRAを紹介する。
そうすることで、TeamLoRAは専門家を"チーム"として内部のコラボレーションや競争に結び付け、マルチタスク学習のためのより高速で正確なPEFTパラダイムを可能にします。
論文 参考訳(メタデータ) (2024-08-19T09:58:53Z) - LEARN: Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
Llm-driven knowlEdge Adaptive RecommeNdation (LEARN)フレームワークは、オープンワールドの知識と協調的な知識をシナジする。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - The Equitable AI Research Roundtable (EARR): Towards Community-Based
Decision Making in Responsible AI Development [4.1986677342209004]
The Equitable AI Research Roundtableの最初の評価について報告する。
EARRは、大手テック企業、非営利団体、NGO研究機関、大学と共同で設立された。
FAccTコミュニティの懸念に特に関係するEARRの運用方法に関する3つの原則を概説する。
論文 参考訳(メタデータ) (2023-03-14T18:57:20Z) - Learning Action-Effect Dynamics for Hypothetical Vision-Language
Reasoning Task [50.72283841720014]
本研究では,行動の効果に関する推論を改善する新しい学習戦略を提案する。
本稿では,提案手法の有効性を実証し,性能,データ効率,一般化能力の観点から,従来のベースラインに対する優位性を論じる。
論文 参考訳(メタデータ) (2022-12-07T05:41:58Z) - Artificial Intelligence for IT Operations (AIOPS) Workshop White Paper [50.25428141435537]
AIOps(Artificial Intelligence for IT Operations)は、マシンラーニング、ビッグデータ、ストリーミング分析、IT運用管理の交差点で発生する、新たな学際分野である。
AIOPSワークショップの主な目的は、アカデミアと産業界の両方の研究者が集まり、この分野での経験、成果、作業について発表することです。
論文 参考訳(メタデータ) (2021-01-15T10:43:10Z) - Where Responsible AI meets Reality: Practitioner Perspectives on
Enablers for shifting Organizational Practices [3.119859292303396]
本稿では,組織文化と構造がAI実践における責任あるイニシアチブの有効性に与える影響を分析するための枠組みについて検討し,提案する。
我々は、業界で働く実践者との半構造化質的なインタビューの結果、共通の課題、倫理的緊張、そして責任あるAIイニシアチブのための効果的なイネーブラーについて調査する。
論文 参考訳(メタデータ) (2020-06-22T15:57:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。