論文の概要: Pluralism in AI Governance: Toward Sociotechnical Alignment and Normative Coherence
- arxiv url: http://arxiv.org/abs/2602.15881v1
- Date: Wed, 04 Feb 2026 14:28:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 12:01:13.687541
- Title: Pluralism in AI Governance: Toward Sociotechnical Alignment and Normative Coherence
- Title(参考訳): AIガバナンスにおける複数主義--社会技術的アライメントと規範的コヒーレンスを目指して
- Authors: Mike Wa Nkongolo,
- Abstract要約: この研究は、フルスタックアライメント、価値の厚みモデル、バリューセンシティブデザイン、パブリックコンスティチューションAIなどのフレームワークを合成する。
価値、メカニズム、戦略をリンクする階層化されたフレームワークを導入し、公正性対効率、透明性対セキュリティ、プライバシ対株式といった緊張関係をマッピングする。
この研究は、AIガバナンスの全体的、価値に敏感なモデルに貢献し、社会技術システムに公開価値を埋め込むための積極的なメカニズムとして規制を緩和する。
- 参考スコア(独自算出の注目度): 0.16921396880325779
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper examines the challenge of embedding public values into national artificial intelligence (AI) governance frameworks, a task complicated by the sociotechnical nature of contemporary systems. As AI permeates domains such as healthcare, justice, and public administration, legitimacy depends not only on technical correctness but on alignment with societal norms, democratic principles, and human dignity. Traditional paradigms focused on model safety or market efficiency neglect broader institutional contexts. To address this, the study synthesises frameworks including Full-Stack Alignment, Thick Models of Value, Value Sensitive Design, and Public Constitutional AI, alongside comparative analysis of jurisdictions such as the EU, US, China, UK, Brazil, and South Africa (SA). It introduces a layered framework linking values, mechanisms, and strategies, and maps tensions such as fairness versus efficiency, transparency versus security, and privacy versus equity. Findings reveal a pluralism of regulatory philosophies, with SA sovereignty-oriented approach offering a distinctive counterpoint. The study contributes a holistic, value-sensitive model of AI governance, reframing regulation as a proactive mechanism for embedding public values into sociotechnical systems.
- Abstract(参考訳): 本稿では,現代システムの社会技術的性質が複雑化する課題である,国家人工知能(AI)ガバナンスフレームワークに公共の価値観を組み込むことの課題について考察する。
AIは医療、司法、行政などの領域に浸透するので、正当性は技術的正当性だけでなく、社会的規範、民主的原則、人間の尊厳に則っている。
伝統的なパラダイムは、モデルの安全性や市場効率に重点を置いており、より広範な制度的文脈を無視している。
これを解決するために、この研究は、EU、米国、中国、英国、ブラジル、南アフリカ(SA)などの司法管轄区域の比較分析とともに、フルスタックアライメント、価値の厚みモデル、価値感性設計、パブリックコンスティチューションAIを含むフレームワークを合成する。
価値、メカニズム、戦略をリンクする階層化されたフレームワークを導入し、公正性対効率、透明性対セキュリティ、プライバシ対株式といった緊張関係をマッピングする。
発見は規制哲学の多元主義を明らかにし、SAの主権指向のアプローチは独特な対位法を提供する。
この研究は、AIガバナンスの全体的、価値に敏感なモデルに貢献し、社会技術システムに公開価値を埋め込むための積極的なメカニズムとして規制を緩和する。
関連論文リスト
- Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Aligning Trustworthy AI with Democracy: A Dual Taxonomy of Opportunities and Risks [26.916552909766118]
本稿では、AIと民主主義の複雑な関係を評価するための二重分類法を提案する。
AIRD分類法は、AIが自律性、公正性、信頼といった中核的な民主主義の原則を台無しにする方法を特定する。
AIPD分類は、透明性、参加、効率、エビデンスに基づく政策決定を強化するAIの可能性を強調している。
論文 参考訳(メタデータ) (2025-05-19T10:51:08Z) - Democratizing AI Governance: Balancing Expertise and Public Participation [1.0878040851638]
人工知能(AI)システムの開発と展開は、その大きな社会的影響とともに、ガバナンスにとって重要な課題を提起している。
本稿では、専門家主導による監視と民主的参加の緊張関係を考察し、参加型と熟考型民主主義のモデルを分析する。
これらのアプローチを欧州連合に合わせたバランスの取れたガバナンスモデルに統合するための勧告が提供されている。
論文 参考訳(メタデータ) (2025-01-16T17:47:33Z) - Ethical and Scalable Automation: A Governance and Compliance Framework for Business Applications [0.0]
本稿では、AIが倫理的で、制御可能で、実行可能で、望ましいものであることを保証するフレームワークを紹介する。
異なるケーススタディは、学術と実践の両方の環境でAIを統合することで、このフレームワークを検証する。
論文 参考訳(メタデータ) (2024-09-25T12:39:28Z) - Exploiting the Margin: How Capitalism Fuels AI at the Expense of Minoritized Groups [0.0]
本稿では、資本主義、人種的不正、人工知能(AI)の関係について考察する。
それは、AIが時代遅れの搾取のための現代的な乗り物として機能する、と論じている。
本論文は、社会正義と株式を技術デザインと政策の核心に組み込むアプローチを推進している。
論文 参考訳(メタデータ) (2024-03-10T22:40:07Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Bridging the Global Divide in AI Regulation: A Proposal for a Contextual, Coherent, and Commensurable Framework [0.9622882291833615]
本稿では、人工知能(AI)を制御するための文脈的・一貫性的・包括的枠組み(3C)を提案する。
コンテキスト性を確保するため、このフレームワークはAIライフサイクルを、基礎や汎用モデルを定義するのではなく、特定のタスクの学習とデプロイという2つのフェーズに分岐させる。
コンメンサビリティを確保するため、この枠組みはリスクの測定と緩和のための国際標準の採用を促進する。
論文 参考訳(メタデータ) (2023-03-20T15:23:40Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。