論文の概要: Responsible Generative AI Use by Product Managers: Recoupling Ethical Principles and Practices
- arxiv url: http://arxiv.org/abs/2501.16531v1
- Date: Mon, 27 Jan 2025 22:10:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-29 16:42:09.381984
- Title: Responsible Generative AI Use by Product Managers: Recoupling Ethical Principles and Practices
- Title(参考訳): プロダクトマネージャが使用する責任ある生成AI - 倫理的原則とプラクティスの再結合
- Authors: Genevieve Smith, Natalia Luka, Merrick Osborne, Brian Lattimore, Jessica Newman, Brandie Nonnecke, Brent Mittelstadt,
- Abstract要約: ジェネレーティブAI(genAI)は、職場に急速に統合されている。
本稿では、プロダクトマネージャがGenAIを使用するとき、日々の業務において責任あるプラクティスをどのように実践するかを検討する。
- 参考スコア(独自算出の注目度): 0.657029444008632
- License:
- Abstract: Since 2022, generative AI (genAI) has rapidly become integrated into workplaces. Though organizations have made commitments to use this technology "responsibly", how organizations and their employees prioritize responsibility in their decision-making remains absent from extant management theorizing. In this paper, we examine how product managers - who often serve as gatekeepers in decision-making processes - implement responsible practices in their day-to-day work when using genAI. Using Institutional Theory, we illuminate the factors that constrain or support proactive responsible development and usage of genAI technologies. We employ a mixed methods research design, drawing on 25 interviews with product managers and a global survey of 300 respondents in product management-related roles. The majority of our respondents report (1) widespread uncertainty regarding what "responsibility" means or looks like, (2) diffused responsibility given assumed ethical actions by other teams, (3) lack of clear incentives and guidance within organizations, and (4) the importance of leadership buy-in and principles for navigating tensions between ethical commitments and profit motives. However, our study finds that even in highly uncertain environments, absent guidance from leadership, product managers can "recouple" ethical commitments and practices by finding responsibility "micro-moments". Product managers seek out low-risk, small-scale actions they can take without explicit buy-in from higher-level managers, such as individual or team-wide checks and reviews and safeguarding standards for data. Our research highlights how genAI poses unique challenges to organizations trying to couple ethical principles and daily practices and the role that middle-level management can play in recoupling the two.
- Abstract(参考訳): 2022年以降、ジェネレーティブAI(genAI)は急速に職場に統合されている。
組織は、このテクノロジを"責任"に使用することを約束してきたが、組織と従業員が意思決定における責任を優先する方法は、既存の管理理論を欠いている。
本稿では、意思決定プロセスにおいて、しばしばゲートキーパーを務めるプロダクトマネージャが、GenAIを使用するとき、日々の業務において責任あるプラクティスをどのように実践するかを検討する。
Institutional Theory を用いて、GenAI 技術の積極的な開発・利用を制約または支援する要因を照明する。
製品マネージャに対する25のインタビューと,300人の製品管理関連職種に関する世界的調査に基づいて,混合手法のリサーチデザインを採用する。
回答者の大多数は,(1)「責任」が何を意味するのか,あるいはそのように見えるのか,(2)他チームによる倫理的行為を前提とした分散した責任,(3)組織内での明確なインセンティブや指導の欠如,(4)倫理的コミットメントと利益モチベーションの間の緊張を緩和する上でのリーダーシップ購入と原則の重要性を報告している。
しかしながら, 極めて不確実な環境でも, リーダーシップの指導が欠如している場合でも, プロダクトマネージャは, 「マイクロモーメント」の責任を見出すことで, 倫理的コミットメントとプラクティスを"再結合"することができる。
プロダクトマネージャは、個人やチーム全体のチェックやレビュー、データ標準の保護といった、ハイレベルなマネージャからの明確な購入なしに、リスクの低い小規模の行動を求めます。
我々の研究は、GenAIが倫理的原則と日々のプラクティスを両立させようとする組織に、どのようにユニークな課題をもたらすか、そしてこの2つの再結合において中レベルのマネジメントが果たす役割を強調しています。
関連論文リスト
- CRMArena: Understanding the Capacity of LLM Agents to Perform Professional CRM Tasks in Realistic Environments [90.29937153770835]
CRMArenaは、プロフェッショナルな作業環境に根ざした現実的なタスクにおいて、AIエージェントを評価するために設計されたベンチマークである。
現状のLDMエージェントはReActプロンプトのタスクの40%以下で成功し,機能呼び出し能力でも55%以下であった。
この結果から,実環境に展開する関数呼び出しやルールフォローにおいて,エージェント機能の向上の必要性が示唆された。
論文 参考訳(メタデータ) (2024-11-04T17:30:51Z) - Minimum Viable Ethics: From Institutionalizing Industry AI Governance to Product Impact [0.0]
AI倫理の専門家は、標準化され再利用可能なプロセスやツールを作成しようとしているため、非常にアジャイルで機会に恵まれていることに気付きました。
製品チームとの交渉では、製品に対する権限と所有権の欠如に根ざした課題に直面しますが、規制対応の物語と倫理を製品品質保証として活用することで、倫理的作業を進めることができます。
この戦略は、コンプライアンスや製品品質とは別の規範的な問題に対処する能力に制限がある、狭い範囲の業界AI倫理である、最小限の実行可能な倫理を私たちに残します。
論文 参考訳(メタデータ) (2024-09-11T00:52:22Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Challenges and Best Practices in Corporate AI Governance:Lessons from the Biopharmaceutical Industry [0.0]
我々は、AIガバナンスを運用しようとする組織が直面する課題について議論する。
これらには、AIガバナンスの物質的スコープをどのように定義するかに関する質問が含まれている。
私たちは、一般的なベストプラクティスでAIガバナンスフレームワークを設計、実装する責任を持つプロジェクトマネージャ、AI実践者、データプライバシオフィサーを提供したいと思っています。
論文 参考訳(メタデータ) (2024-07-07T12:01:42Z) - Understanding the Building Blocks of Accountability in Software
Engineering [3.521765725717803]
ソフトウェア技術者がチーム内で個々の説明責任を育む要因について検討する。
本研究は,ソフトウェア技術者が説明責任を個別に知覚する2つの主要な形態,すなわち制度化と草の根を認識するものである。
論文 参考訳(メタデータ) (2024-02-02T21:53:35Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - The Promise and Peril of Artificial Intelligence -- Violet Teaming
Offers a Balanced Path Forward [56.16884466478886]
本稿では、不透明で制御不能なAIシステムにおける新興問題についてレビューする。
信頼性と責任のあるAIを開発するために、紫外チームと呼ばれる統合フレームワークを提案する。
それは、設計によって積極的にリスクを管理するためのAI安全研究から生まれた。
論文 参考訳(メタデータ) (2023-08-28T02:10:38Z) - Trustworthy, responsible, ethical AI in manufacturing and supply chains:
synthesis and emerging research questions [59.34177693293227]
製造の文脈において、責任、倫理、信頼できるAIの適用性について検討する。
次に、機械学習ライフサイクルのより広範な適応を使用して、実証的な例を用いて、各ステップが与えられたAIの信頼性に関する懸念にどのように影響するかを議論します。
論文 参考訳(メタデータ) (2023-05-19T10:43:06Z) - Three lines of defense against risks from AI [0.0]
AIリスク管理の責任者は必ずしも明確ではない。
3つの防衛ライン(3LoD)モデルは、多くの産業でベストプラクティスと考えられている。
私は、AI企業がモデルを実装できる方法を提案する。
論文 参考訳(メタデータ) (2022-12-16T09:33:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。