論文の概要: Governing AI R&D: A Legal Framework for Constraining Dangerous AI
- arxiv url: http://arxiv.org/abs/2509.05361v1
- Date: Wed, 03 Sep 2025 19:09:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.460363
- Title: Governing AI R&D: A Legal Framework for Constraining Dangerous AI
- Title(参考訳): Governing AI R&D - 危険なAIを規制するための法律フレームワーク
- Authors: Alex Mark, Aaron Scher,
- Abstract要約: 議員は、AIモデルやAI研究自体の開発とリリースを制限しようとするかもしれない。
米国におけるAI規制の潜在的な訴訟リスクは,第1条,第14条,第1条,第14条の3種類に該当する。
我々は、法的な課題が生じる可能性が高いAIに適用される可能性のある既存の前例と、議員がそれらを先制的に対処する方法について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As AI advances, governing its development may become paramount to public safety. Lawmakers may seek to restrict the development and release of AI models or of AI research itself. These governance actions could trigger legal challenges that invalidate the actions, so lawmakers should consider these challenges ahead of time. We investigate three classes of potential litigation risk for AI regulation in the U.S.: the First Amendment, administrative law, and the Fourteenth Amendment. We discuss existing precedent that is likely to apply to AI, which legal challenges are likely to arise, and how lawmakers might preemptively address them. Effective AI regulation is possible, but it requires careful implementation to avoid these legal challenges.
- Abstract(参考訳): AIが進歩するにつれて、その開発を管理することは公共の安全にとって最重要となるかもしれない。
議員は、AIモデルやAI研究自体の開発とリリースを制限しようとするかもしれない。
これらのガバナンス行動は、アクションを無効にする法的課題を引き起こす可能性があるため、議会はこれらの課題を事前に検討する必要がある。
米国におけるAI規制の潜在的な訴訟リスクは,第1条,第14条,第1条,第14条の3種類に該当する。
我々は、法的な課題が生じる可能性が高いAIに適用される可能性のある既存の前例と、議員がそれらを先制的に対処する方法について論じる。
効果的なAI規制は可能だが、これらの法的課題を避けるためには慎重に実施する必要がある。
関連論文リスト
- Beware! The AI Act Can Also Apply to Your AI Research Practices [2.532202013576547]
EUはデジタル時代を規制する先駆者の一人となっている。
AI法は、リスクベースのアプローチにより、AIシステムのプロバイダに対するさまざまな義務を規定している。
このポジションペーパーは、事実、AI法の義務は、AIコミュニティが認識しているよりも多くのケースに適用できると主張している。
論文 参考訳(メタデータ) (2025-06-03T08:01:36Z) - Ethical Challenges of Using Artificial Intelligence in Judiciary [0.0]
AIは司法の機能と司法の免除に革命をもたらす可能性がある。
世界中の裁判所は、正義の行政を強化する手段として、AI技術を採用し始めている。
しかし、司法におけるAIの使用は、様々な倫理的課題を引き起こす。
論文 参考訳(メタデータ) (2025-04-27T15:51:56Z) - AI threats to national security can be countered through an incident regime [55.2480439325792]
我々は、AIシステムからの潜在的な国家安全保障脅威に対抗することを目的とした、法的に義務付けられたポストデプロイAIインシデントシステムを提案する。
提案したAIインシデント体制は,3段階に分けられる。第1フェーズは,‘AIインシデント’とみなすような,新たな運用方法を中心に展開される。
第2フェーズと第3フェーズでは、AIプロバイダが政府機関にインシデントを通知し、政府機関がAIプロバイダのセキュリティおよび安全手順の修正に関与するべきだ、と説明されている。
論文 参考訳(メタデータ) (2025-03-25T17:51:50Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Public Constitutional AI [0.0]
AI当局の権限はますます強まりつつある。
AIシステムが効果的なガバナンスに必要な正当性を確保するには、どうすればいいのか?
このエッセイは、AIの正当性を確保するためには、AIシステムの設計と制約に一般市民が関与する方法が必要である、と論じている。
論文 参考訳(メタデータ) (2024-06-24T15:00:01Z) - Securing the Future of GenAI: Policy and Technology [50.586585729683776]
政府はGenAIを規制し、イノベーションと安全性のバランスをとるという課題に、世界中で不満を抱いている。
Google、ウィスコンシン大学、マディソン大学、スタンフォード大学が共同で行ったワークショップは、GenAIのポリシーとテクノロジーのギャップを埋めることを目的としていた。
本稿では,技術進歩を妨げることなく,どのように規制を設計できるか,といった問題に対処するワークショップの議論を要約する。
論文 参考訳(メタデータ) (2024-05-21T20:30:01Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - AI Regulation in Europe: From the AI Act to Future Regulatory Challenges [3.0821115746307663]
両哲学の要素を組み合わせるハイブリッドな規制戦略を論じている。
本稿は、AI法を、AIがもたらす多面的課題に対処するための、先駆的な立法努力として検討する。
同社は、高性能で潜在的にオープンソースなAIシステムへのアクセスを規制するプロトコルを作成するための即時アクションを提唱している。
論文 参考訳(メタデータ) (2023-10-06T07:52:56Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。