論文の概要: Traceable, Enforceable, and Compensable Participation: A Participation Ledger for People-Centered AI Governance
- arxiv url: http://arxiv.org/abs/2602.10916v1
- Date: Wed, 11 Feb 2026 14:53:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:02.028124
- Title: Traceable, Enforceable, and Compensable Participation: A Participation Ledger for People-Centered AI Governance
- Title(参考訳): トレーサブル、エンフォースブル、そして補償可能な参加: 人々中心のAIガバナンスのための参加レジャー
- Authors: Rashid Mushkani,
- Abstract要約: 我々は、参加をトレース可能な影響力、強制可能な権限、補償可能な労働として運用するフレームワークである参加レジャーを導入する。
台帳は、AIシステムの検証された変更に貢献したアーティファクトをリンクする影響グラフとして参加を表現している。
参加証拠標準(Participation Evidence Standard)は、同意、プライバシ、補償、再利用用語を文書化した文書化、システムの更新とテスト前後の再生を可能にする影響追跡メカニズム、コミットメントの長期監視、権利とインセンティブのエンコードなど、3つの要素を統合している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Participatory approaches are widely invoked in AI governance, yet participation rarely translates into durable influence. In public sector and civic AI systems, community contributions such as deliberations, annotations, prompts, and incident reports are often recorded informally, weakly linked to system updates, and disconnected from enforceable rights or sustained compensation. As a result, participation is frequently symbolic rather than accountable. We introduce the Participation Ledger, a machine readable and auditable framework that operationalizes participation as traceable influence, enforceable authority, and compensable labor. The ledger represents participation as an influence graph that links contributed artifacts to verified changes in AI systems, including datasets, prompts, adapters, policies, guardrails, and evaluation suites. It integrates three elements: a Participation Evidence Standard documenting consent, privacy, compensation, and reuse terms; an influence tracing mechanism that connects system updates to replayable before and after tests, enabling longitudinal monitoring of commitments; and encoded rights and incentives. Capability Vouchers allow authorized community stewards to request or constrain specific system capabilities within defined boundaries, while Participation Credits support ongoing recognition and compensation when contributed tests continue to provide value. We ground the framework in four urban AI and public space governance deployments and provide a machine readable schema, templates, and an evaluation plan for assessing traceability, enforceability, and compensation in practice.
- Abstract(参考訳): 参加型アプローチはAIガバナンスにおいて広く採用されているが、参加が永続的な影響をもたらすことは滅多にない。
公共部門や市民AIシステムでは、審議、注釈、プロンプト、インシデントレポートなどのコミュニティコントリビューションが非公式に記録され、システム更新と弱い関係があり、強制可能な権利や継続可能な補償から切り離されていることが多い。
結果として、参加は説明責任というよりも、しばしば象徴的である。
我々は、追跡可能な影響、強制可能な権限、補償可能な労力として参加を運用する、機械可読で監査可能なフレームワークであるParticipation Ledgerを紹介する。
台帳は、データセット、プロンプト、アダプタ、ポリシー、ガードレール、評価スイートを含む、AIシステムの検証された変更に貢献したアーティファクトをリンクする影響グラフとして参加している。
参加証拠標準(Participation Evidence Standard)は、同意、プライバシ、補償、再利用用語を文書化した文書化、システムの更新とテスト前後の再生を可能にする影響追跡メカニズム、コミットメントの長期監視、権利とインセンティブのエンコードなど、3つの要素を統合している。
権限のあるコミュニティスチュワートは、定義されたバウンダリ内で特定のシステム機能を要求または制約することを許可し、Participation Creditsは、コントリビュートテストが価値を提供し続けるときに、継続的な認識と補償をサポートする。
我々は、このフレームワークを4つの都市AIおよびパブリックスペースガバナンスデプロイメントに基礎を置いており、実際にトレーサビリティ、強制可能性、補償を評価するためのマシン可読スキーマ、テンプレート、評価計画を提供している。
関連論文リスト
- Preventing the Collapse of Peer Review Requires Verification-First AI [49.995126139461085]
我々は、真理結合、すなわち、過度に科学的真理をトラックする場所のスコアの厳密さを提案する。
プロキシ・ソブリン評価に向けた相転移を駆動する2つの力の形式化を行う。
論文 参考訳(メタデータ) (2026-01-23T17:17:32Z) - A Unifying Human-Centered AI Fairness Framework [2.9385229328767988]
8つの異なる公平度指標をカバーする、統一された人間中心の公正度フレームワークを導入する。
このフレームワークは、単一の公正の概念を特権化するのではなく、利害関係者が複数の公正目標に対して重みを割り当てることを可能にする。
重みを調整することで、異なる公平度指標間の微妙なトレードオフが明らかになる。
論文 参考訳(メタデータ) (2025-12-07T17:52:38Z) - Measuring What Matters: The AI Pluralism Index [0.0]
AI Pluralism Index(AIPI)は、4つの柱(参加型ガバナンス、傾向と多様性、透明性、説明責任)にまたがる生産者とシステム家族を評価する透明でエビデンスに基づく指標である。
この指標は、多元主義的な実践に対するインセンティブを推し進め、政策立案者、調達者、一般大衆に同等の証拠を与えることを目的としている。
論文 参考訳(メタデータ) (2025-10-09T13:19:34Z) - Partial Identification Approach to Counterfactual Fairness Assessment [50.88100567472179]
未知の対実的公正度尺度を高い信頼性で有界化するためのベイズ的アプローチを導入する。
以上の結果から、人種をアフリカ系アメリカ人に転換する際のCompASスコアに対する肯定的な(不快な)効果と、若年から高齢に移行する際の否定的な(直接的な因果関係)効果が明らかとなった。
論文 参考訳(メタデータ) (2025-09-30T18:35:08Z) - Beyond Explainability: The Case for AI Validation [0.0]
我々は、中央規制柱としての検証へのシフトを主張する。
AI出力の信頼性、一貫性、堅牢性を保証するバリデーションは、説明可能性に対してより実用的で、スケーラブルで、リスクに敏感な代替手段を提供する。
本稿では,事前・後検証,第三者監査,調和標準,債務インセンティブを中心に,先進的な政策枠組みを提案する。
論文 参考訳(メタデータ) (2025-05-27T06:42:41Z) - Position: The AI Conference Peer Review Crisis Demands Author Feedback and Reviewer Rewards [2.8239108914343305]
本稿では,従来の一方向レビューシステムを双方向フィードバックループに変換する必要性を論じる。
著者はレビューの品質を評価し、レビュアーは正式な認定を受け、説明責任フレームワークを作成する。
論文 参考訳(メタデータ) (2025-05-08T05:51:48Z) - Towards Fair RAG: On the Impact of Fair Ranking in Retrieval-Augmented Generation [53.285436927963865]
本論文は,公正度を意識したランキングを組み込んだRAGシステムの最初の体系的評価である。
フェアネスを意識した検索を組み込むことで、ランキング品質と生成品質の両面を維持・強化することが少なくない。
論文 参考訳(メタデータ) (2024-09-17T23:10:04Z) - Ask-AC: An Initiative Advisor-in-the-Loop Actor-Critic Framework [41.04606578479283]
本稿では,Ask-ACと呼ばれる新しいアドバイザリ・イン・ザ・ループアクター・クリティカル・フレームワークを提案する。
Ask-ACの中心には2つの補完的なコンポーネント、すなわちアクションリクエスタとアダプティブステートセレクタがある。
定常環境および非定常環境における実験結果から,提案手法はエージェントの学習効率を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2022-07-05T10:58:11Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - A relationship and not a thing: A relational approach to algorithmic
accountability and assessment documentation [3.4438724671481755]
当社は、開発者はシステムがどのように動作するかに関する情報をほとんど独占していると論じています。
我々は、ロバストな説明責任体制は、大衆が共有された経験と関心を結び付ける機会を確立する必要があると論じている。
論文 参考訳(メタデータ) (2022-03-02T23:22:03Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。