論文の概要: Legal Infrastructure for Transformative AI Governance
- arxiv url: http://arxiv.org/abs/2602.01474v1
- Date: Sun, 01 Feb 2026 22:42:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.805905
- Title: Legal Infrastructure for Transformative AI Governance
- Title(参考訳): 変革的AIガバナンスのための法的基盤
- Authors: Gillian K. Hadfield,
- Abstract要約: 法の主要な役割は、実質的なルールを確立することだけでなく、ルールの生成と実装のための法と規制のインフラを確立することである。
AIの変革的な性質は、特に法的および規制的なフレームワークの構築に注意を向けている。
- 参考スコア(独自算出の注目度): 0.1025539204868229
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Most of our AI governance efforts focus on substance: what rules do we want in place? What limits or checks do we want to impose on AI development and deployment? But a key role for law is not only to establish substantive rules but also to establish legal and regulatory infrastructure to generate and implement rules. The transformative nature of AI calls especially for attention to building legal and regulatory frameworks. In this PNAS Perspective piece I review three examples I have proposed: the creation of registration regimes for frontier models; the creation of registration and identification regimes for autonomous agents; and the design of regulatory markets to facilitate a role for private companies to innovate and deliver AI regulatory services.
- Abstract(参考訳): AIガバナンスの取り組みのほとんどは、物質に重点を置いています。
AI開発とデプロイメントにどのような制限やチェックを課したいのか?
しかし、法律の重要な役割は、実質的なルールを確立することだけでなく、ルールの生成と実装のための法的なおよび規制的なインフラを確立することである。
AIの変革的な性質は、特に法的および規制的なフレームワークの構築に注意を向けている。
このPNASパースペクティブ記事では、私が提案した3つの例についてレビューします。フロンティアモデルの登録体制の作成、自律エージェントの登録と識別体制の作成、そして、民間企業がAI規制サービスを革新し提供するための役割を促進するための規制市場の設計です。
関連論文リスト
- LegalOne: A Family of Foundation Models for Reliable Legal Reasoning [51.268190904035805]
我々は、中国の法律ドメインに特化された基礎モデルのファミリーであるLegalOneを紹介します。
LegalOneは、法的推論をマスターするために設計された包括的な3フェーズパイプラインを通じて開発されている。
LegalOneの重み付けとLegalKit評価フレームワークを公開して、Legal AIの分野を前進させます。
論文 参考訳(メタデータ) (2026-01-31T10:18:32Z) - Watermarking Without Standards Is Not AI Governance [46.71493672772134]
現在の実装は、効果的な監視を提供するのではなく、象徴的なコンプライアンスとして機能するリスクがある、と私たちは主張する。
本稿では,技術標準,監査インフラストラクチャ,実施機構を含む3層フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-27T18:10:04Z) - The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements for a model template [55.2480439325792]
基本権利影響評価(FRIA)の理論的・方法論的検討における既存のギャップを埋めることを目的とする。
この記事では、FRIAのモデルテンプレートの主要なビルディングブロックについて概説する。
これは、AIが人権と完全に整合していることを保証するために、他の国家および国際規制イニシアチブの青写真として機能する。
論文 参考訳(メタデータ) (2024-11-07T11:55:55Z) - RIRAG: Regulatory Information Retrieval and Answer Generation [51.998738311700095]
本稿では,質問を自動生成し,関連する規制通路と組み合わせる,問合せペアを生成するタスクを紹介する。
我々は、Abu Dhabi Global Markets (ADGM) の財務規制文書から得られた27,869の質問を含むObliQAデータセットを作成する。
本稿では,RIRAG(Regulation Information Retrieval and Answer Generation)システムをベースラインとして設計し,新しい評価基準であるRePASを用いて評価する。
論文 参考訳(メタデータ) (2024-09-09T14:44:19Z) - Regulatory Markets: The Future of AI Governance [0.7230697742559377]
産業の自己規制への過度な依存は、生産者とユーザーが民主的要求に責任を負うことに失敗する。
AI規制に対するこのアプローチは、コマンド・アンド・コントロールの規制と自己規制の両方の制限を克服する可能性がある。
論文 参考訳(メタデータ) (2023-04-11T01:05:55Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z) - A Pragmatic Approach to Regulating Artificial Intelligence: A Technology
Regulator's Perspective [1.614803913005309]
技術保証規制の枠組みを提供するための実践的なアプローチを提案する。
これらの規制は、すべてのAIベースのシステムに対して義務付けられてはならない。
論文 参考訳(メタデータ) (2021-04-15T16:49:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。