論文の概要: Governing frontier general-purpose AI in the public sector: adaptive risk management and policy capacity under uncertainty through 2030
- arxiv url: http://arxiv.org/abs/2604.06215v1
- Date: Mon, 16 Mar 2026 19:03:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-12 18:41:08.645568
- Title: Governing frontier general-purpose AI in the public sector: adaptive risk management and policy capacity under uncertainty through 2030
- Title(参考訳): 公共セクターにおけるフロンティアの汎用AIの統治--2030年までの不確実性の下での適応的リスク管理と政策能力
- Authors: Fabio Correa Xavier,
- Abstract要約: 論文では、フロンティアAIのための公共ガバナンスは、適応的なリスク管理、シナリオ対応の規制、社会技術的変革に基づくべきであると論じている。
政府におけるAIの採用は、組織の監視、公共セクター機関のダイナミクス、データコラボレーション能力にどのように依存するかを調べる。
効果的なAIガバナンスには、より強力なポリシキャパシティ、より明確な責任割り当て、さまざまな技術的未来にわたって堅牢なガバナンスメカニズムが必要である、と結論付けている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The governance of frontier general-purpose artificial intelligence has become a public-sector problem of institutional design, not merely a technical issue of model performance. Recent evidence indicates that AI capabilities are advancing rapidly, though unevenly, while knowledge about harms, safeguards, and effective interventions remains partial and lagged. This combination creates a difficult policy condition: governments must decide under uncertainty, across multiple plausible trajectories of progress through 2030, and in environments where adoption outcomes depend on organizational routines, data arrangements, accountability structures, and public values. This article argues that public governance for frontier AI should be based on adaptive risk management, scenario-aware regulation, and sociotechnical transformation rather than static compliance models. Drawing on the International AI Safety Report 2026, OECD foresight and policy documents, and recent scholarship in digital government, the article first reconstructs the conceptual foundations of the 'evidence dilemma', differentiated AI risk categories, and the limits of prediction. It then examines how AI adoption in government depends on organizational redesign, public-sector institutional dynamics, and data collaboration capacity. On that basis, it proposes an adaptive governance framework for public institutions that integrates capability monitoring, risk tiering, conditional controls, institutional learning, and standards-based interoperability. The article concludes that effective AI governance requires stronger policy capacity, clearer allocation of responsibility, and governance mechanisms that remain robust across divergent technological futures.
- Abstract(参考訳): フロンティアの汎用人工知能のガバナンスは、単にモデル性能の技術的な問題ではなく、制度設計の公共部門問題となっている。
最近の証拠は、AIの能力が急速に進歩していることを示している。
この組み合わせは難しい政策条件を生み出し、政府は不確実性の下で、2030年までの複数のもっともらしい進展の軌跡を越え、採用結果が組織的なルーチン、データアレンジメント、説明責任構造、公開価値に依存する環境において決定しなければならない。
この記事では、フロンティアAIのためのパブリックガバナンスは、静的コンプライアンスモデルではなく、適応型リスク管理、シナリオ対応規制、社会技術的変換に基づくべきである、と論じる。
国際AI安全レポート2026に基づき、OECDの監視と政策文書、デジタル政府における最近の奨学金に基づいて、この記事はまず「エビデンス・ジレンマ」の概念的基盤、AIリスクカテゴリの分化、予測の限界を再構築する。
次に、政府におけるAIの採用は、組織の再設計、公共部門制度のダイナミクス、データコラボレーション能力にどのように依存するかを調べる。
その基盤として、能力監視、リスク階層化、条件制御、制度学習、標準ベースの相互運用性を統合した公共機関のための適応型ガバナンスフレームワークを提案する。
この記事では、効果的なAIガバナンスには、より強力なポリシーキャパシティ、より明確な責任割り当て、さまざまな技術的未来にわたって堅牢なガバナンスメカニズムが必要である、と結論付けている。
関連論文リスト
- Security, privacy, and agentic AI in a regulatory view: From definitions and distinctions to provisions and reflections [53.468443050795344]
人工知能(AI)技術の急速な普及は、動的規制の展望につながった。
AIパラダイムが、特にエージェントAIの形で、より大きな自律性へと移行するにつれ、規制規定を明確にすることはますます困難になっている。
本稿は、2024年から2025年の間に発行された24の関連文書を分析して、EU(EU)のAI規制条項をレビューする。
論文 参考訳(メタデータ) (2026-03-19T13:50:52Z) - Agentic AI, Retrieval-Augmented Generation, and the Institutional Turn: Legal Architectures and Financial Governance in the Age of Distributional AGI [0.0]
本稿では,エージェントAI,Retrieval-Augmented Generation(RAG)の交わりと,法的説明責任と金融市場の整合性との関連について検討する。
我々は、調整された構成値ではなく、ランタイムガバナンスグラフ、制裁関数、観察可能な行動制約を含むメカニズム設計問題として、アライメントを再認識しなければならないと論じる。
論文 参考訳(メタデータ) (2026-02-20T11:58:43Z) - AI Regulation in Telecommunications: A Cross-Jurisdictional Legal Study [0.6117371161379207]
本論では,10ヶ国における政策指標の比較法的研究を行う。
通信、サイバーセキュリティ、データ保護、AI法が、インフラにおけるAI関連のリスクにどのようにアプローチするかを検討する。
論文 参考訳(メタデータ) (2025-11-27T08:30:12Z) - International AI Safety Report 2025: Second Key Update: Technical Safeguards and Risk Management [115.92752850425272]
2025年の国際AI安全レポートの第2の更新は、この1年で汎用AIリスク管理の新しい展開を評価している。
研究者、公共機関、AI開発者が汎用AIのリスク管理にどのようにアプローチしているかを調べる。
論文 参考訳(メタデータ) (2025-11-25T03:12:56Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - AI and the Transformation of Accountability and Discretion in Urban Governance [1.9152655229960793]
この研究は洞察を合成し、意思決定プロセスにおける責任あるAI統合のための指針原則を提案する。
分析によると、AIは単に判断を制限したり、強化したりするのではなく、制度レベルで再配布する。
同時に管理の監督を強化し、意思決定の整合性を高め、運用効率を向上させることができる。
論文 参考訳(メタデータ) (2025-02-18T18:11:39Z) - Generative AI Needs Adaptive Governance [0.0]
ジェネレーティブAIは、ガバナンス、信頼、ヒューマンエージェンシーの概念に挑戦する。
本稿では,ジェネレーティブAIが適応的ガバナンスを求めていることを論じる。
我々は、アクター、ロール、および共有およびアクター固有のポリシー活動の概要を概説する。
論文 参考訳(メタデータ) (2024-06-06T23:47:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。