論文の概要: Legal Infrastructure for Transformative AI Governance
- arxiv url: http://arxiv.org/abs/2602.01474v1
- Date: Sun, 01 Feb 2026 22:42:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.805905
- Title: Legal Infrastructure for Transformative AI Governance
- Title(参考訳): 変革的AIガバナンスのための法的基盤
- Authors: Gillian K. Hadfield,
- Abstract要約: 法の主要な役割は、実質的なルールを確立することだけでなく、ルールの生成と実装のための法と規制のインフラを確立することである。
AIの変革的な性質は、特に法的および規制的なフレームワークの構築に注意を向けている。
- 参考スコア(独自算出の注目度): 0.1025539204868229
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Most of our AI governance efforts focus on substance: what rules do we want in place? What limits or checks do we want to impose on AI development and deployment? But a key role for law is not only to establish substantive rules but also to establish legal and regulatory infrastructure to generate and implement rules. The transformative nature of AI calls especially for attention to building legal and regulatory frameworks. In this PNAS Perspective piece I review three examples I have proposed: the creation of registration regimes for frontier models; the creation of registration and identification regimes for autonomous agents; and the design of regulatory markets to facilitate a role for private companies to innovate and deliver AI regulatory services.
- Abstract(参考訳): AIガバナンスの取り組みのほとんどは、物質に重点を置いています。
AI開発とデプロイメントにどのような制限やチェックを課したいのか?
しかし、法律の重要な役割は、実質的なルールを確立することだけでなく、ルールの生成と実装のための法的なおよび規制的なインフラを確立することである。
AIの変革的な性質は、特に法的および規制的なフレームワークの構築に注意を向けている。
このPNASパースペクティブ記事では、私が提案した3つの例についてレビューします。フロンティアモデルの登録体制の作成、自律エージェントの登録と識別体制の作成、そして、民間企業がAI規制サービスを革新し提供するための役割を促進するための規制市場の設計です。
関連論文リスト
- LegalOne: A Family of Foundation Models for Reliable Legal Reasoning [51.268190904035805]
我々は、中国の法律ドメインに特化された基礎モデルのファミリーであるLegalOneを紹介します。
LegalOneは、法的推論をマスターするために設計された包括的な3フェーズパイプラインを通じて開発されている。
LegalOneの重み付けとLegalKit評価フレームワークを公開して、Legal AIの分野を前進させます。
論文 参考訳(メタデータ) (2026-01-31T10:18:32Z) - Watermarking Without Standards Is Not AI Governance [46.71493672772134]
現在の実装は、効果的な監視を提供するのではなく、象徴的なコンプライアンスとして機能するリスクがある、と私たちは主張する。
本稿では,技術標準,監査インフラストラクチャ,実施機構を含む3層フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-27T18:10:04Z) - Comparing Apples to Oranges: A Taxonomy for Navigating the Global Landscape of AI Regulation [0.0]
我々は,AI規制のグローバルな展望を地図化するための分類法を提案する。
このフレームワークは、欧州連合のAI法、米国執行命令14110、カナダのAIおよびデータ法、中国の生成AIサービスに関する暫定措置、ブラジルのAI法案2338/2023の5つの早期移行者に適用される。
論文 参考訳(メタデータ) (2025-05-19T19:23:41Z) - The Role of Legal Frameworks in Shaping Ethical Artificial Intelligence Use in Corporate Governance [0.0]
本稿では、企業統治における倫理的人工知能(AI)利用の形成における法的枠組みの進化的役割について考察する。
企業AIアプリケーションにおける透明性、説明責任、公正性の促進を目的とした、重要な法的および規制的なアプローチを探求する。
論文 参考訳(メタデータ) (2025-03-17T14:21:58Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - The Illusory Normativity of Rights-Based AI Regulation [0.0]
我々は、EUのAI規制を取り巻く権利に基づく物語が、その制度設計の論理を誤認していると論じる。
我々の目標は、アメリカのモデルを支持するのではなく、EUアプローチが規範的理想を反映しているという前提を拒絶することです。
論文 参考訳(メタデータ) (2025-02-27T03:05:32Z) - The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements for a model template [55.2480439325792]
基本権利影響評価(FRIA)の理論的・方法論的検討における既存のギャップを埋めることを目的とする。
この記事では、FRIAのモデルテンプレートの主要なビルディングブロックについて概説する。
これは、AIが人権と完全に整合していることを保証するために、他の国家および国際規制イニシアチブの青写真として機能する。
論文 参考訳(メタデータ) (2024-11-07T11:55:55Z) - RIRAG: Regulatory Information Retrieval and Answer Generation [51.998738311700095]
本稿では,質問を自動生成し,関連する規制通路と組み合わせる,問合せペアを生成するタスクを紹介する。
我々は、Abu Dhabi Global Markets (ADGM) の財務規制文書から得られた27,869の質問を含むObliQAデータセットを作成する。
本稿では,RIRAG(Regulation Information Retrieval and Answer Generation)システムをベースラインとして設計し,新しい評価基準であるRePASを用いて評価する。
論文 参考訳(メタデータ) (2024-09-09T14:44:19Z) - Regulatory Markets: The Future of AI Governance [0.7230697742559377]
産業の自己規制への過度な依存は、生産者とユーザーが民主的要求に責任を負うことに失敗する。
AI規制に対するこのアプローチは、コマンド・アンド・コントロールの規制と自己規制の両方の制限を克服する可能性がある。
論文 参考訳(メタデータ) (2023-04-11T01:05:55Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z) - A Pragmatic Approach to Regulating Artificial Intelligence: A Technology
Regulator's Perspective [1.614803913005309]
技術保証規制の枠組みを提供するための実践的なアプローチを提案する。
これらの規制は、すべてのAIベースのシステムに対して義務付けられてはならない。
論文 参考訳(メタデータ) (2021-04-15T16:49:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。