論文の概要: (When) Should We Delegate AI Governance to AIs? Some Lessons from Administrative Law
- arxiv url: http://arxiv.org/abs/2509.22717v1
- Date: Wed, 24 Sep 2025 14:50:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 19:26:24.228859
- Title: (When) Should We Delegate AI Governance to AIs? Some Lessons from Administrative Law
- Title(参考訳): (いつ)AIガバナンスをAIに委ねるべきか?行政法から学ぶ
- Authors: Nicholas Caputo,
- Abstract要約: 高度なAIシステムは、AIガバナンスで使用されている。
人間の実践者はAIの決定を理解することができない可能性があるため、ガバナンスにAIを使用すると深刻なリスクが発生する。
本稿では,AIガバナンスをAIに委譲する際の原則的枠組みの開発に着手する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advanced AI systems are now being used in AI governance. Practitioners will likely delegate an increasing number of tasks to them as they improve and governance becomes harder. However, using AI for governance risks serious harms because human practitioners may not be able to understand AI decisions or determine whether they are aligned to the user's interests. Delegation may also undermine governance's legitimacy. This paper begins to develop a principled framework for when to delegate AI governance to AIs and when (and how) to maintain human participation. Administrative law, which governs agencies that are (1) more expert in their domains than the legislatures that create them and the courts that oversee them and (2) potentially misaligned to their original goals, offers useful lessons. Administrative law doctrine provides examples of clear, articulated rules for when delegation can occur, what delegation can consist of, and what processes can keep agencies aligned even as they are empowered to achieve their goals. The lessons of administrative law provide a foundation for how AI governance can use AI in a safe, accountable, and effective way.
- Abstract(参考訳): 高度なAIシステムは、AIガバナンスで使用されている。
実践者は、改善し、ガバナンスが困難になるにつれて、ますます多くのタスクを委譲するでしょう。
しかし、AIをガバナンスに使用すると、人間の実践者はAIの決定を理解したり、ユーザーの関心に沿うかどうかを判断できないため、深刻なリスクが発生する。
立法は統治の正当性を損なうこともある。
本稿は、AIガバナンスをAIに委譲する時期と、人間の参加を維持するための(そしてどのように)方法の原則的なフレームワークの開発に着手する。
行政法は、(1)その領域に精通する機関を統治し、(1)それを創設する立法府や、それを管理する裁判所よりも専門的な機関を統治し、(2)その本来の目的に反する可能性があり、有益な教訓を提供する。
行政法学の教義は、委任がいつ起こるか、どの委任が構成可能か、そして目的を達成する権限が与えられたとしても、どのようなプロセスが機関を整合させることができるかを明確にした規則の例を提供する。
行政法の教訓は、AIガバナンスが安全で説明責任があり、効果的な方法でAIを使用する方法の基礎を提供する。
関連論文リスト
- Artificial Intelligence in Government: Why People Feel They Lose Control [44.99833362998488]
行政における人工知能の利用は急速に拡大している。
AIはより効率と応答性を約束するが、政府機能への統合は公正性、透明性、説明責任に関する懸念を提起する。
この記事では、デリゲートの特別事例として、AI導入に関するプリンシパル・エージェント理論を適用します。
論文 参考訳(メタデータ) (2025-05-02T07:46:41Z) - Ethical Challenges of Using Artificial Intelligence in Judiciary [0.0]
AIは司法の機能と司法の免除に革命をもたらす可能性がある。
世界中の裁判所は、正義の行政を強化する手段として、AI技術を採用し始めている。
しかし、司法におけるAIの使用は、様々な倫理的課題を引き起こす。
論文 参考訳(メタデータ) (2025-04-27T15:51:56Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Challenges and Best Practices in Corporate AI Governance:Lessons from the Biopharmaceutical Industry [0.0]
我々は、AIガバナンスを運用しようとする組織が直面する課題について議論する。
これらには、AIガバナンスの物質的スコープをどのように定義するかに関する質問が含まれている。
私たちは、一般的なベストプラクティスでAIガバナンスフレームワークを設計、実装する責任を持つプロジェクトマネージャ、AI実践者、データプライバシオフィサーを提供したいと思っています。
論文 参考訳(メタデータ) (2024-07-07T12:01:42Z) - Public Constitutional AI [0.0]
AI当局の権限はますます強まりつつある。
AIシステムが効果的なガバナンスに必要な正当性を確保するには、どうすればいいのか?
このエッセイは、AIの正当性を確保するためには、AIシステムの設計と制約に一般市民が関与する方法が必要である、と論じている。
論文 参考訳(メタデータ) (2024-06-24T15:00:01Z) - When Should Algorithms Resign? A Proposal for AI Governance [10.207523025324296]
アルゴリズムの辞退は、ガバナンスを直接AIシステムに埋め込むことによって、人工知能(AI)の使用を管理する戦略的アプローチである。
アクセスAI出力の制限やパフォーマンス評価の表示など、AIからの意図的かつインフォームドな切り離しが伴う。
論文 参考訳(メタデータ) (2024-02-28T13:48:44Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。