論文の概要: Autonomous AI and Ownership Rules
- arxiv url: http://arxiv.org/abs/2602.20169v1
- Date: Mon, 09 Feb 2026 18:58:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 07:21:25.640223
- Title: Autonomous AI and Ownership Rules
- Title(参考訳): 自律型AIとオーナシップルール
- Authors: Frank Fagan,
- Abstract要約: AIが創始者にトレース可能な場合、アクセシションドクトは、オーナシップを割り当てる効率的な手段を提供する。
戦略的所有権の解消において、自律型AIは帰属を回避し、課税仲裁と規制回避の機会を創出するために意図的に設計されている。
これらの非効率性、報奨制度、私的インセンティブ、政府の助成金は、AIの捕獲を奨励し、所有者のないAIが市場を歪めるのを防ぐメカニズムとして提案されている。
- 参考スコア(独自算出の注目度): 0.09444500584367876
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This Article examines the circumstances in which AI-generated outputs remain linked to their creators and the points at which they lose that connection, whether through accident, deliberate design, or emergent behavior. In cases where AI is traceable to an originator, accession doctrine provides an efficient means of assigning ownership, preserving investment incentives while maintaining accountability. When AI becomes untraceable -- whether through carelessness, deliberate obfuscation, or emergent behavior -- first possession rules can encourage reallocation to new custodians who are incentivized to integrate AI into productive use. The analysis further explores strategic ownership dissolution, where autonomous AI is intentionally designed to evade attribution, creating opportunities for tax arbitrage and regulatory avoidance. To counteract these inefficiencies, bounty systems, private incentives, and government subsidies are proposed as mechanisms to encourage AI capture and prevent ownerless AI from distorting markets.
- Abstract(参考訳): 本稿では,AIが生成したアウトプットが創造者と結びついている状況と,事故,意図的設計,創発的行動などを通じて,そのつながりを失う点について考察する。
AIが創始者にトレース可能な場合、アクセシションドクトは、責任を付与し、説明責任を維持しながら投資インセンティブを保存する効率的な手段を提供する。
AIが -- 不注意、故意の難読化、あるいは創発的な行動であれ -- 追跡不能になった場合、最初の所有ルールは、AIを生産的利用に統合するインセンティブを得た新たなカストディアへの再配置を促進する。
この分析はさらに、自律型AIが帰属を避けるために意図的に設計され、税の仲裁と規制回避の機会が生まれる、戦略的所有権の解消についても検討している。
これらの非効率性、報奨制度、私的インセンティブ、政府の助成金は、AIの捕獲を奨励し、所有者のないAIが市場を歪めるのを防ぐメカニズムとして提案されている。
関連論文リスト
- One Bad NOFO? AI Governance in Federal Grantmaking [0.2179228399562846]
米国の機関は、連邦政府の財政援助に何十億ドルもの資金を投入する際に、見過ごされているAIガバナンスの役割を持っている。
裁量的な助成金メーカーとして、機関は、AIガバナンスのための隠されたレバーである、受賞者の行為をガイドし、制限する。
2009年から2024年にかけて、米国連邦助成金のウェブサイトに投稿された4万件以上の連邦助成金の申告書(NOFO)のデータセットを使用します。
論文 参考訳(メタデータ) (2025-05-13T00:08:22Z) - Artificial Intelligence in Government: Why People Feel They Lose Control [44.99833362998488]
行政における人工知能の利用は急速に拡大している。
AIはより効率と応答性を約束するが、政府機能への統合は公正性、透明性、説明責任に関する懸念を提起する。
この記事では、デリゲートの特別事例として、AI導入に関するプリンシパル・エージェント理論を適用します。
論文 参考訳(メタデータ) (2025-05-02T07:46:41Z) - The Philosophic Turn for AI Agents: Replacing centralized digital rhetoric with decentralized truth-seeking [0.0]
AI技術に直面すると、個人はますますAIエージェントに頼り、生活の複雑化をナビゲートするようになる。
本稿では、AI意思決定支援システムによって引き起こされる基本的なジレンマに対処する。
論文 参考訳(メタデータ) (2025-04-24T19:34:43Z) - Agentic AI: Autonomy, Accountability, and the Algorithmic Society [0.2209921757303168]
エージェント人工知能(AI)は、自律的に長期的な目標を追求し、意思決定を行い、複雑なマルチターンを実行することができる。
この指導的役割から積極的執行課題への移行は、法的、経済的、創造的な枠組みを確立した。
我々は,創造性と知的財産,法的・倫理的考察,競争効果の3つの分野における課題を探求する。
論文 参考訳(メタデータ) (2025-02-01T03:14:59Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Filling gaps in trustworthy development of AI [20.354549569362035]
AIシステムからの潜在的なリスクに対する認識の高まりは、これらのリスクに対処するための行動を引き起こしている。
しかし、原則はしばしば、信頼できるAI開発における「何」と「方法」の間にギャップを残します。
したがって、AI開発者が害を防ぎ、信頼を証明できる具体的な方法が緊急に必要である。
論文 参考訳(メタデータ) (2021-12-14T22:45:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。