論文の概要: Infrastructuring Contestability: A Framework for Community-Defined AI Value Pluralism
- arxiv url: http://arxiv.org/abs/2507.05187v1
- Date: Mon, 07 Jul 2025 16:45:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.521203
- Title: Infrastructuring Contestability: A Framework for Community-Defined AI Value Pluralism
- Title(参考訳): コンフィラビリティのインフラクチャリング: コミュニティが定義したAI価値多元主義のためのフレームワーク
- Authors: Andreas Mayer,
- Abstract要約: AI駆動システムの普及は、人間とコンピュータのインタラクションとコンピュータが支援する協調作業に課題をもたらす。
集中型のトップダウン定義に依存している現在の価値アライメントへのアプローチには、意味のある競争性のためのメカニズムが欠如している。
本稿では,このギャップに対処する社会技術フレームワークであるCommunity-Defined AI Value Pluralismを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The proliferation of AI-driven systems presents a fundamental challenge to Human-Computer Interaction (HCI) and Computer-Supported Cooperative Work (CSCW), often diminishing user agency and failing to account for value pluralism. Current approaches to value alignment, which rely on centralized, top-down definitions, lack the mechanisms for meaningful contestability. This leaves users and communities unable to challenge or shape the values embedded in the systems that govern their digital lives, creating a crisis of legitimacy and trust. This paper introduces Community-Defined AI Value Pluralism (CDAVP), a socio-technical framework that addresses this gap. It reframes the design problem from achieving a single aligned state to infrastructuring a dynamic ecosystem for value deliberation and application. At its core, CDAVP enables diverse, self-organizing communities to define and maintain explicit value profiles - rich, machine-readable representations that can encompass not only preferences but also community-specific rights and duties. These profiles are then contextually activated by the end-user, who retains ultimate control (agency) over which values guide the AI's behavior. AI applications, in turn, are designed to transparently interpret these profiles and moderate conflicts, adhering to a set of non-negotiable, democratically-legitimated meta-rules. The designer's role shifts from crafting static interfaces to becoming an architect of participatory ecosystems. We argue that infrastructuring for pluralism is a necessary pathway toward achieving robust algorithmic accountability and genuinely contestable, human-centric AI.
- Abstract(参考訳): AI駆動システムの普及は、ヒューマン・コンピュータ・インタラクション(HCI)とコンピュータ・サポーテッド・コラボレーション・ワーク(CSCW)に根本的な課題をもたらし、しばしばユーザ・エージェンシーを減少させ、価値の多元性を考慮しない。
集中型のトップダウン定義に依存している現在のバリューアライメントに対するアプローチには、意味のある競争性のためのメカニズムが欠如している。
これにより、ユーザやコミュニティは、デジタル生活を管理するシステムに埋め込まれた価値に挑戦したり、形を作ったりすることができなくなり、正当性と信頼の危機が生じる。
本稿では,このギャップに対処する社会技術フレームワークであるCommunity-Defined AI Value Pluralism(CDAVP)を紹介する。
単一の整合状態を達成することから、価値検討とアプリケーションのための動的なエコシステムを構築することまで、設計上の問題を再編成します。
CDAVPの中核は、多様で自己組織化されたコミュニティが明示的な価値プロファイルを定義し、維持することを可能にします。
これらのプロファイルは、AIの振る舞いを導くための究極のコントロール(緊急性)を保持するエンドユーザによって、コンテキスト的に起動される。
AIアプリケーションは、これらのプロファイルと穏健な対立を透過的に解釈するように設計され、非交渉的で民主的なメタルールのセットに固執する。
デザイナーの役割は、静的インターフェースの製作から、参加型エコシステムのアーキテクトへとシフトする。
我々は、多元性のためのインフラクチャリングが、堅牢なアルゴリズム的説明責任と真に競合可能な、人間中心のAIを達成するための必須の経路であると主張している。
関連論文リスト
- Resource Rational Contractualism Should Guide AI Alignment [69.07915246220985]
契約主義的アライメントは、多様な利害関係者が支持する合意の中で決定を下すことを提案する。
我々は、AIシステムが合理的な当事者が形成する合意を近似する枠組みであるリソース・リアリズムを提案する。
RRC対応エージェントは、効率的に機能するだけでなく、変化する人間の社会世界への適応と解釈を動的に行うことができる。
論文 参考訳(メタデータ) (2025-06-20T18:57:13Z) - Position: Emergent Machina Sapiens Urge Rethinking Multi-Agent Paradigms [8.177915265718703]
AIエージェントは、目的を動的に調整する権限を持つべきだ、と私たちは主張する。
私たちは、これらのマルチエージェントAIシステムの創発的で、自己組織化され、コンテキストに配慮した性質へのシフトを呼びかけます。
論文 参考訳(メタデータ) (2025-02-05T22:20:15Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - AI Alignment: A Comprehensive Survey [69.61425542486275]
AIアライメントは、AIシステムが人間の意図や価値観に沿って振る舞うようにすることを目的としている。
AIアライメントの重要な目的として、ロバストネス、解釈可能性、制御可能性、倫理という4つの原則を特定します。
我々は、現在のアライメント研究を、前方アライメントと後方アライメントの2つの重要なコンポーネントに分解する。
論文 参考訳(メタデータ) (2023-10-30T15:52:15Z) - Value Kaleidoscope: Engaging AI with Pluralistic Human Values, Rights, and Duties [68.66719970507273]
価値多元性とは、複数の正しい値が互いに緊張して保持されるという考え方である。
統計的学習者として、AIシステムはデフォルトで平均に適合する。
ValuePrismは、218kの値、権利、義務の大規模なデータセットで、31kの人間が記述した状況に関連付けられています。
論文 参考訳(メタデータ) (2023-09-02T01:24:59Z) - Human Values in Multiagent Systems [3.5027291542274357]
本稿では,社会科学における価値の形式的表現について述べる。
我々は,この形式的表現を用いて,マルチエージェントシステムにおける価値整合性を実現する上で重要な課題を明確化する。
論文 参考訳(メタデータ) (2023-05-04T11:23:59Z) - Bridging the Global Divide in AI Regulation: A Proposal for a Contextual, Coherent, and Commensurable Framework [0.9622882291833615]
本稿では、人工知能(AI)を制御するための文脈的・一貫性的・包括的枠組み(3C)を提案する。
コンテキスト性を確保するため、このフレームワークはAIライフサイクルを、基礎や汎用モデルを定義するのではなく、特定のタスクの学習とデプロイという2つのフェーズに分岐させる。
コンメンサビリティを確保するため、この枠組みはリスクの測定と緩和のための国際標準の採用を促進する。
論文 参考訳(メタデータ) (2023-03-20T15:23:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。