論文の概要: Co-Producing AI: Toward an Augmented, Participatory Lifecycle
- arxiv url: http://arxiv.org/abs/2508.00138v1
- Date: Thu, 31 Jul 2025 19:58:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.656374
- Title: Co-Producing AI: Toward an Augmented, Participatory Lifecycle
- Title(参考訳): AIの共同開発 - 増員された参加型ライフサイクルを目指して
- Authors: Rashid Mushkani, Hugo Berard, Toumadher Ammar, Cassandre Chatonnier, Shin Koseki,
- Abstract要約: これらの害を緩和するには、AI生産パイプラインの根本的な再構築が必要である、と私たちは主張する。
この再設計は、共同制作、多様性、株式、包括性、多分野連携を中心とする。
我々は,コフレーミング,共同設計,共同実装,共同デプロイ,共同保守という5つのフェーズからなるAIライフサイクルを導入する。
- 参考スコア(独自算出の注目度): 11.355030716751832
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite efforts to mitigate the inherent risks and biases of artificial intelligence (AI) algorithms, these algorithms can disproportionately impact culturally marginalized groups. A range of approaches has been proposed to address or reduce these risks, including the development of ethical guidelines and principles for responsible AI, as well as technical solutions that promote algorithmic fairness. Drawing on design justice, expansive learning theory, and recent empirical work on participatory AI, we argue that mitigating these harms requires a fundamental re-architecture of the AI production pipeline. This re-design should center co-production, diversity, equity, inclusion (DEI), and multidisciplinary collaboration. We introduce an augmented AI lifecycle consisting of five interconnected phases: co-framing, co-design, co-implementation, co-deployment, and co-maintenance. The lifecycle is informed by four multidisciplinary workshops and grounded in themes of distributed authority and iterative knowledge exchange. Finally, we relate the proposed lifecycle to several leading ethical frameworks and outline key research questions that remain for scaling participatory governance.
- Abstract(参考訳): 人工知能(AI)アルゴリズムの本質的なリスクとバイアスを軽減する努力にもかかわらず、これらのアルゴリズムは文化的に疎外されたグループに不均等に影響を及ぼす可能性がある。
これらのリスクに対処または軽減するために、AIに対する倫理的ガイドラインや原則の開発や、アルゴリズムの公正性を促進する技術的なソリューションなど、さまざまなアプローチが提案されている。
デザインの正義、拡張学習理論、そして最近の参加型AIに関する実証研究に基づいて、これらの害を軽減するためには、AI生産パイプラインの根本的な再構築が必要である、と私たちは主張する。
この再設計は、共同制作、多様性、株式、包括性(DEI)、および多分野の協力を中心にすべきである。
我々は,コフレーミング,共同設計,共同実装,共同デプロイ,共同保守という5つのフェーズからなるAIライフサイクルを導入する。
ライフサイクルは4つの学際的なワークショップによって知らされ、分散権威と反復的な知識交換のテーマに基礎を置いている。
最後に、提案されたライフサイクルをいくつかの主要な倫理的枠組みに関連付け、参加型ガバナンスを拡大するための重要な研究課題を概説する。
関連論文リスト
- The Value of Disagreement in AI Design, Evaluation, and Alignment [0.0]
相違はAIシステムの設計、評価、アライメントパイプライン全体に広がっている。
AI開発における標準的なプラクティスは、しばしば曖昧または不一致を排除し、エンジニアリングされた均質化をもたらす。
我々は,AIライフサイクルにおける不一致に関する実践的推論を導くための規範的枠組みを開発する。
論文 参考訳(メタデータ) (2025-05-12T17:22:30Z) - Bridging the Gap: Integrating Ethics and Environmental Sustainability in AI Research and Practice [57.94036023167952]
我々は、AIの倫理的影響を研究するための努力は、その環境への影響を評価するものと相まって行われるべきであると論じる。
我々は,AI研究と実践にAI倫理と持続可能性を統合するためのベストプラクティスを提案する。
論文 参考訳(メタデータ) (2025-04-01T13:53:11Z) - From Principles to Practice: A Deep Dive into AI Ethics and Regulations [13.753819576072127]
この記事では、欧州連合が提案する画期的なAI規制フレームワークについて、徹底的に分析する。
学術や産業がこれらの原則を守ろうとする技術的努力と戦略を考えると、我々は5つの倫理的原則の相乗効果と矛盾を探求する。
論文 参考訳(メタデータ) (2024-12-06T00:46:20Z) - Roadmap on Incentive Compatibility for AI Alignment and Governance in Sociotechnical Systems [10.463105660497357]
既存の方法論は主に技術的側面に焦点を当てており、しばしばAIシステムの複雑な社会技術的性質を無視している。
Incentive Compatibility Sociotechnical Alignment Problem (ICSAP)
ICを実現するための古典的なゲーム問題として,機構設計,契約理論,ベイズ的説得の3つを論じ,ICSAP解決の視点,可能性,課題について論じる。
論文 参考訳(メタデータ) (2024-02-20T10:52:57Z) - A Vision for Operationalising Diversity and Inclusion in AI [5.4897262701261225]
本研究は,AIエコシステムにおける多様性と包摂性(D&I)の倫理的命令の運用を想定することを目的とする。
AI開発における重要な課題は、D&Iの原則を効果的に運用することである。
本稿では,ジェネレーティブAI(GenAI)を用いたペルソナシミュレーションを活用したツール開発のためのフレームワークの構想を提案する。
論文 参考訳(メタデータ) (2023-12-11T02:44:39Z) - The Participatory Turn in AI Design: Theoretical Foundations and the
Current State of Practice [64.29355073494125]
本稿は、既存の理論文献を合成して、AI設計における「参加的転換」を掘り下げることを目的としている。
我々は、最近発表された研究および12人のAI研究者および実践者に対する半構造化インタビューの分析に基づいて、AI設計における参加実践の現状に関する実証的な知見を述べる。
論文 参考訳(メタデータ) (2023-10-02T05:30:42Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Computability, Complexity, Consistency and Controllability: A Four C's
Framework for cross-disciplinary Ethical Algorithm Research [1.8275108630751844]
倫理的アルゴリズム文学における関連する問題に関する学際的理解の促進に有用な枠組みを考案した。
アルゴリズムの研究と設計に関わる科学において,倫理学,哲学学,集団倫理学の知見がいかに関連し,翻訳可能であるかを示す。
論文 参考訳(メタデータ) (2021-01-30T17:03:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。