論文の概要: The Social Responsibility Stack: A Control-Theoretic Architecture for Governing Socio-Technical AI
- arxiv url: http://arxiv.org/abs/2512.16873v1
- Date: Thu, 18 Dec 2025 18:42:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:32.217126
- Title: The Social Responsibility Stack: A Control-Theoretic Architecture for Governing Socio-Technical AI
- Title(参考訳): The Social Responsibility Stack: 社会技術的AIを統治するための制御理論アーキテクチャ
- Authors: Otman A. Basir,
- Abstract要約: 本稿では,社会責任スタック(Social Responsibility Stack, SRS)を紹介する。
我々は、SRSが規範的目的を実行可能なエンジニアリングと運用制御にどのように変換するかを示す。
このフレームワークは倫理、制御理論、AIガバナンスを橋渡しし、説明責任、適応性、監査可能な社会技術AIシステムのための実践的な基盤を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence systems are increasingly deployed in domains that shape human behaviour, institutional decision-making, and societal outcomes. Existing responsible AI and governance efforts provide important normative principles but often lack enforceable engineering mechanisms that operate throughout the system lifecycle. This paper introduces the Social Responsibility Stack (SRS), a six-layer architectural framework that embeds societal values into AI systems as explicit constraints, safeguards, behavioural interfaces, auditing mechanisms, and governance processes. SRS models responsibility as a closed-loop supervisory control problem over socio-technical systems, integrating design-time safeguards with runtime monitoring and institutional oversight. We develop a unified constraint-based formulation, introduce safety-envelope and feedback interpretations, and show how fairness, autonomy, cognitive burden, and explanation quality can be continuously monitored and enforced. Case studies in clinical decision support, cooperative autonomous vehicles, and public-sector systems illustrate how SRS translates normative objectives into actionable engineering and operational controls. The framework bridges ethics, control theory, and AI governance, providing a practical foundation for accountable, adaptive, and auditable socio-technical AI systems.
- Abstract(参考訳): 人工知能システムは、人間の行動、制度的な意思決定、社会的な成果を形作る領域にますます配備されている。
既存の責任あるAIとガバナンスの取り組みは、重要な規範的原則を提供するが、システムライフサイクル全体にわたって機能する強制可能なエンジニアリングメカニズムを欠いていることが多い。
本稿では,社会責任スタック(Social Responsibility Stack, SRS)を紹介し, 社会的価値を明示的な制約, セーフガード, 行動インターフェース, 監査機構, ガバナンスプロセスとしてAIシステムに組み込む6層アーキテクチャフレームワークを紹介する。
SRSは、社会技術システムに対するクローズドループ監督制御問題として責任をモデル化し、設計時安全ガードとランタイム監視と機関監視を統合する。
我々は、制約に基づく統一的な定式化を開発し、安全性とフィードバックの解釈を導入し、公正性、自律性、認知的負担、説明品質を継続的に監視し、強制することができるかを示す。
臨床意思決定支援、協力型自動運転車、および公共セクターシステムにおけるケーススタディは、SRSが規範的目的を実行可能なエンジニアリングと運用制御にどのように変換するかを示している。
このフレームワークは倫理、制御理論、AIガバナンスを橋渡しし、説明責任、適応性、監査可能な社会技術AIシステムのための実践的な基盤を提供する。
関連論文リスト
- Can AI be Auditable? [3.0260353258798625]
オーディタビリティ(Auditability)とは、倫理的、法的、技術的基準に準拠するために独立して評価されるAIシステムの能力である。
この章では、EU AI Actなどの新たな規制フレームワークを通じて、監査容易性がどのように形式化されているかを論じている。
技術的不透明さ、一貫性のないドキュメントプラクティス、標準化された監査ツールとメトリクスの欠如など、AI監査可能性に直面する課題を分析する。
論文 参考訳(メタデータ) (2025-08-30T18:03:20Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Putting AI Ethics into Practice: The Hourglass Model of Organizational
AI Governance [0.0]
AIシステムの開発と利用を目標とする,AIガバナンスフレームワークを提案する。
このフレームワークは、AIシステムをデプロイする組織が倫理的AI原則を実践に翻訳するのを助けるように設計されている。
論文 参考訳(メタデータ) (2022-06-01T08:55:27Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。