論文の概要: Minimum Viable Ethics: From Institutionalizing Industry AI Governance to Product Impact
- arxiv url: http://arxiv.org/abs/2409.06926v1
- Date: Wed, 11 Sep 2024 00:52:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-12 15:57:17.733156
- Title: Minimum Viable Ethics: From Institutionalizing Industry AI Governance to Product Impact
- Title(参考訳): 最小限の生存倫理 - 産業AIガバナンスの制度化から製品への影響まで
- Authors: Archana Ahlawat, Amy Winecoff, Jonathan Mayer,
- Abstract要約: AI倫理の専門家は、標準化され再利用可能なプロセスやツールを作成しようとしているため、非常にアジャイルで機会に恵まれていることに気付きました。
製品チームとの交渉では、製品に対する権限と所有権の欠如に根ざした課題に直面しますが、規制対応の物語と倫理を製品品質保証として活用することで、倫理的作業を進めることができます。
この戦略は、コンプライアンスや製品品質とは別の規範的な問題に対処する能力に制限がある、狭い範囲の業界AI倫理である、最小限の実行可能な倫理を私たちに残します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Across the technology industry, many companies have expressed their commitments to AI ethics and created dedicated roles responsible for translating high-level ethics principles into product. Yet it is unclear how effective this has been in leading to meaningful product changes. Through semi-structured interviews with 26 professionals working on AI ethics in industry, we uncover challenges and strategies of institutionalizing ethics work along with translation into product impact. We ultimately find that AI ethics professionals are highly agile and opportunistic, as they attempt to create standardized and reusable processes and tools in a corporate environment in which they have little traditional power. In negotiations with product teams, they face challenges rooted in their lack of authority and ownership over product, but can push forward ethics work by leveraging narratives of regulatory response and ethics as product quality assurance. However, this strategy leaves us with a minimum viable ethics, a narrowly scoped industry AI ethics that is limited in its capacity to address normative issues separate from compliance or product quality. Potential future regulation may help bridge this gap.
- Abstract(参考訳): テクノロジー業界全体で、多くの企業がAI倫理へのコミットメントを表明し、ハイレベルな倫理原則を製品に翻訳する責任を負う専門的な役割を創り出している。
しかし、これがどれほど有意義な製品変更に繋がったかは不明だ。
産業におけるAI倫理に携わる26人の専門家との半構造化されたインタビューを通じて、我々は倫理業務を組織化し、製品への影響に翻訳するという課題と戦略を明らかにする。
最終的に、AI倫理の専門家は、従来の力のほとんどない企業環境で標準化され再利用可能なプロセスやツールを作成しようとしているため、非常に機敏で機会に恵まれていることに気付きます。
製品チームとの交渉では、製品に対する権限と所有権の欠如に根ざした課題に直面しますが、規制対応の物語と倫理を製品品質保証として活用することで、倫理的作業を進めることができます。
しかし、この戦略は、コンプライアンスや製品品質とは別の規範的な問題に対処する能力に制限される、狭い範囲の業界AI倫理である、最小限の実行可能な倫理を私たちに残します。
将来の規制は、このギャップを埋めるのに役立つかもしれない。
関連論文リスト
- Ethical Leadership in the Age of AI Challenges, Opportunities and Framework for Ethical Leadership [2.666704793226655]
倫理的リーダシップは、これらの課題に直面し、それらの機会を最大化する上で、組織を導く上で中心的な役割を担います。
この記事では、倫理的リーダーシップとAIの簡易導入から始まる、AI時代の倫理的リーダーシップの本質について考察する。
AIの時代における倫理的リーダーシップの機会は、次のような質問に答える。
論文 参考訳(メタデータ) (2024-10-08T10:17:19Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Unpacking the Ethical Value Alignment in Big Models [46.560886177083084]
本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
本稿では,大規模モデルの倫理的価値を整合させる新しい概念パラダイムを導入し,アライメント基準,評価,方法に関する有望な研究方向性について議論する。
論文 参考訳(メタデータ) (2023-10-26T16:45:40Z) - Trustworthy, responsible, ethical AI in manufacturing and supply chains:
synthesis and emerging research questions [59.34177693293227]
製造の文脈において、責任、倫理、信頼できるAIの適用性について検討する。
次に、機械学習ライフサイクルのより広範な適応を使用して、実証的な例を用いて、各ステップが与えられたAIの信頼性に関する懸念にどのように影響するかを議論します。
論文 参考訳(メタデータ) (2023-05-19T10:43:06Z) - Walking the Walk of AI Ethics: Organizational Challenges and the
Individualization of Risk among Ethics Entrepreneurs [0.0]
労働者は、政策、プラクティス、成果が分離された環境を経験する。
我々は、AI倫理労働者を、組織内で新しい倫理関連プラクティスを制度化するために働く倫理起業家として分析する。
論文 参考訳(メタデータ) (2023-05-16T16:11:24Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Ethics as a service: a pragmatic operationalisation of AI Ethics [1.1083289076967895]
ギャップは、AI倫理原則の理論と、AIシステムの実践的設計の間に存在している。
これは、原則と技術的な翻訳ツールが、たとえ制限されているとしても、なぜまだ必要であるのかを探求することによって、ここで解決しようとしている問題です。
論文 参考訳(メタデータ) (2021-02-11T21:29:25Z) - An Ecosystem Approach to Ethical AI and Data Use: Experimental
Reflections [0.0]
本稿では、倫理的課題に直面し解決することに関して、AI実践者のニーズを特定する方法論を提供する。
ダイアログと相互責任に基づく運用倫理に対する草の根的アプローチを提供する。
論文 参考訳(メタデータ) (2020-12-27T07:41:26Z) - AI virtues -- The missing link in putting AI ethics into practice [0.0]
この論文は、正義、誠実さ、責任、注意の4つの基本的なAIの美徳を定義している。
それは2階AIの2つの美徳、寛大さと寛大さを定義し、基本的な美徳を後押しする。
論文 参考訳(メタデータ) (2020-11-25T14:14:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。