論文の概要: Measuring What Matters: The AI Pluralism Index
- arxiv url: http://arxiv.org/abs/2510.08193v1
- Date: Thu, 09 Oct 2025 13:19:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.090797
- Title: Measuring What Matters: The AI Pluralism Index
- Title(参考訳): 重要度を測定する - AI Pluralism Index
- Authors: Rashid Mushkani,
- Abstract要約: AI Pluralism Index(AIPI)は、4つの柱(参加型ガバナンス、傾向と多様性、透明性、説明責任)にまたがる生産者とシステム家族を評価する透明でエビデンスに基づく指標である。
この指標は、多元主義的な実践に対するインセンティブを推し進め、政策立案者、調達者、一般大衆に同等の証拠を与えることを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence systems increasingly mediate knowledge, communication, and decision making. Development and governance remain concentrated within a small set of firms and states, raising concerns that technologies may encode narrow interests and limit public agency. Capability benchmarks for language, vision, and coding are common, yet public, auditable measures of pluralistic governance are rare. We define AI pluralism as the degree to which affected stakeholders can shape objectives, data practices, safeguards, and deployment. We present the AI Pluralism Index (AIPI), a transparent, evidence-based instrument that evaluates producers and system families across four pillars: participatory governance, inclusivity and diversity, transparency, and accountability. AIPI codes verifiable practices from public artifacts and independent evaluations, explicitly handling "Unknown" evidence to report both lower-bound ("evidence") and known-only scores with coverage. We formalize the measurement model; implement a reproducible pipeline that integrates structured web and repository analysis, external assessments, and expert interviews; and assess reliability with inter-rater agreement, coverage reporting, cross-index correlations, and sensitivity analysis. The protocol, codebook, scoring scripts, and evidence graph are maintained openly with versioned releases and a public adjudication process. We report pilot provider results and situate AIPI relative to adjacent transparency, safety, and governance frameworks. The index aims to steer incentives toward pluralistic practice and to equip policymakers, procurers, and the public with comparable evidence.
- Abstract(参考訳): 人工知能システムは知識、コミュニケーション、意思決定をますます仲介する。
開発とガバナンスは小さな企業や州に集中しており、テクノロジーが狭い利益を符号化し、公共機関を制限するという懸念を提起している。
言語、ビジョン、コーディングの能力ベンチマークは一般的であるが、多元的ガバナンスの監査可能な尺度はまれである。
AIの多元性は、影響のあるステークホルダーが目的、データプラクティス、セーフガード、デプロイメントを形作ることができる程度であると定義しています。
AI Pluralism Index(AIPI)は、4つの柱(参加型ガバナンス、傾向と多様性、透明性、説明責任)にまたがる生産者とシステム家族を評価する透明でエビデンスに基づく指標である。
AIPIコードは、公開アーティファクトと独立評価から検証可能なプラクティスをコードし、"未知"のエビデンスを明示的に扱い、低いバウンド(エビデンス)と既知の唯一のスコアの両方をカバレッジで報告する。
分析モデルを形式化し、構造化されたWebおよびリポジトリ分析、外部評価、専門家インタビューを統合した再現可能なパイプラインを実装し、信頼性をラター間合意、カバレッジレポート、クロスインデックス相関、感度分析で評価する。
プロトコル、コードブック、スコアリングスクリプト、エビデンスグラフは、バージョン管理されたリリースとパブリックな判断プロセスとともにオープンに維持される。
パイロットプロバイダの結果を報告し、隣接する透明性、安全性、ガバナンスフレームワークに対してAIPIを定めます。
この指標は、多元主義的な実践に対するインセンティブを推し進め、政策立案者、調達者、一般大衆に同等の証拠を与えることを目的としている。
関連論文リスト
- Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Toward a Public and Secure Generative AI: A Comparative Analysis of Open and Closed LLMs [0.0]
本研究では,オープンかつクローズドな生成型AIモデルの特徴,機会,課題を批判的に評価し,比較することを目的とする。
提案されたフレームワークは、重要な側面、オープン性、パブリックガバナンス、セキュリティを、信頼できる、包括的なGen AIの未来を形成するための必須の柱として概説している。
論文 参考訳(メタデータ) (2025-05-15T15:21:09Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - Bridging the Communication Gap: Evaluating AI Labeling Practices for Trustworthy AI Development [41.64451715899638]
EUエネルギラベルのようなフレームワークにインスパイアされたハイレベルなAIラベルは、AIモデルの特性をより透明にするために提案されている。
本研究は,4つの重要な研究課題に沿った質的なインタビューを通じて,AIラベリングを評価する。
論文 参考訳(メタデータ) (2025-01-21T06:00:14Z) - Who is Responsible? The Data, Models, Users or Regulations? A Comprehensive Survey on Responsible Generative AI for a Sustainable Future [17.980029412706106]
ジェネレーティブAIは、研究からセクターをまたいだ現実世界への展開へと急速に移行している。
この研究は、メソッド、ベンチマーク、ポリシーにまたがる責任ある生成AIの風景を合成する。
論文 参考訳(メタデータ) (2025-01-15T20:59:42Z) - Towards Trustworthy AI: A Review of Ethical and Robust Large Language Models [1.7466076090043157]
大きな言語モデル(LLM)は多くの分野を変革できるが、その急速な開発は、監視、倫理的創造、ユーザ信頼の構築に重大な課題を生み出している。
この総合的なレビューは、意図しない害、透明性の欠如、攻撃に対する脆弱性、人的価値との整合性、環境への影響など、LLMにおける重要な信頼の問題について考察する。
これらの課題に対処するため、倫理的監視、業界説明責任、規制、公的な関与を組み合わせることを提案する。
論文 参考訳(メタデータ) (2024-06-01T14:47:58Z) - Multisource AI Scorecard Table for System Evaluation [3.74397577716445]
本稿では、AI/機械学習(ML)システムの開発者およびユーザに対して標準チェックリストを提供するマルチソースAIスコアカードテーブル(MAST)について述べる。
本稿では,インテリジェンス・コミュニティ・ディレクティブ(ICD)203で概説されている分析的トレードクラフト標準が,AIシステムの性能を評価するためのフレームワークを提供する方法について考察する。
論文 参考訳(メタデータ) (2021-02-08T03:37:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。