論文の概要: Stochastic, Dynamic, Fluid Autonomy in Agentic AI: Implications for Authorship, Inventorship, and Liability
- arxiv url: http://arxiv.org/abs/2504.04058v1
- Date: Sat, 05 Apr 2025 04:44:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:13:35.229895
- Title: Stochastic, Dynamic, Fluid Autonomy in Agentic AI: Implications for Authorship, Inventorship, and Liability
- Title(参考訳): エージェントAIにおける確率的、動的、流体自律性:オーサシップ、発明、責任の意味
- Authors: Anirban Mukherjee, Hannah Hanwen Chang,
- Abstract要約: エージェントAIシステムは、暗黙の学習を通じて戦略を適応し、自律的に目標を追求する。
人間と機械の貢献は、相互に絡み合った創造的なプロセスに不可避的に絡まってしまう。
法律と政策の枠組みは、人間と機械の貢献を機能的に同等に扱う必要があるかもしれないと我々は主張する。
- 参考スコア(独自算出の注目度): 0.2209921757303168
- License:
- Abstract: Agentic Artificial Intelligence (AI) systems, exemplified by OpenAI's DeepResearch, autonomously pursue goals, adapting strategies through implicit learning. Unlike traditional generative AI, which is reactive to user prompts, agentic AI proactively orchestrates complex workflows. It exhibits stochastic, dynamic, and fluid autonomy: its steps and outputs vary probabilistically (stochastic), it evolves based on prior interactions (dynamic), and it operates with significant independence within human-defined parameters, adapting to context (fluid). While this fosters complex, co-evolutionary human-machine interactions capable of generating uniquely synthesized creative outputs, it also irrevocably blurs boundaries--human and machine contributions become irreducibly entangled in intertwined creative processes. Consequently, agentic AI poses significant challenges to legal frameworks reliant on clear attribution: authorship doctrines struggle to disentangle ownership, intellectual property regimes strain to accommodate recursively blended novelty, and liability models falter as accountability diffuses across shifting loci of control. The central issue is not the legal treatment of human versus machine contributions, but the fundamental unmappability--the practical impossibility in many cases--of accurately attributing specific creative elements to either source. When retroactively parsing contributions becomes infeasible, applying distinct standards based on origin becomes impracticable. Therefore, we argue, legal and policy frameworks may need to treat human and machine contributions as functionally equivalent--not for moral or economic reasons, but as a pragmatic necessity.
- Abstract(参考訳): OpenAIのDeepResearchによって実証されたエージェント人工知能(AI)システムは、自律的に目標を追求し、暗黙の学習を通じて戦略を適用する。
ユーザープロンプトに反応する従来の生成AIとは異なり、エージェントAIは複雑なワークフローを積極的にオーケストレーションする。
ステップとアウトプットは確率論的(確率論的)に変化し、事前の相互作用(力学)に基づいて進化し、人間の定義したパラメータの中で大きな独立性を持って動作し、文脈(流体)に適応する。
独創的な創造的アウトプットを創出できる複雑で共進化的な人間と機械の相互作用を育む一方で、人間と機械のコントリビューションは、不可避的に境界を曖昧にする。人間と機械のコントリビューションは、相互に絡み合う創造的なプロセスに不可避的に絡み合う。したがって、エージェントAIは、明確な帰属に依存した法的枠組みに重大な課題を生じさせる。著者のドクトリンは、所有を混乱させ、知的財産制度は、再帰的にブレンドされたノベルティに苦しむ。責任モデルは、制御の軌跡にまたがる説明責任の拡散を招きかねない。中心的な問題は、人間と機械のコントリビューションの法的扱いではなく、基本的不成功性 - 特定の創造的要素を正確に受け入れる場合において、創造的なコントリビューションに即応的なコントリビュートが適用されるようになる。従って、人間と機械のコントリビュートレーションに匹敵する。従って、人間と機械のコントリビュートレーションは、倫理的または経済的に等しい。
関連論文リスト
- Position: Emergent Machina Sapiens Urge Rethinking Multi-Agent Paradigms [6.285314639722078]
AIエージェントは、その目的を動的に調整する権限を持つべきだ、と私たちは主張する。
私たちは、これらのシステムの創発的で、自己組織化され、文脈に合った性質へのシフトを呼びかけます。
論文 参考訳(メタデータ) (2025-02-05T22:20:15Z) - Agentic AI: Autonomy, Accountability, and the Algorithmic Society [0.2209921757303168]
エージェント人工知能(AI)は、自律的に長期的な目標を追求し、意思決定を行い、複雑なマルチターンを実行することができる。
この指導的役割から積極的執行課題への移行は、法的、経済的、創造的な枠組みを確立した。
我々は,創造性と知的財産,法的・倫理的考察,競争効果の3つの分野における課題を探求する。
論文 参考訳(メタデータ) (2025-02-01T03:14:59Z) - Common Sense Is All You Need [5.280511830552275]
人工知能(AI)は近年大きな進歩を遂げているが、すべての動物に存在する認知の基本的な側面(常識)に悩まされ続けている。
現在のAIシステムは、広範囲の事前知識を必要とせずに、新しい状況に適応する能力に欠けることが多い。
この原稿は、AIシステムに常識を統合することは、真の自律性を達成し、AIの完全な社会的および商業的価値を解放するために不可欠である、と論じている。
論文 参考訳(メタデータ) (2025-01-11T21:23:41Z) - Augmenting Minds or Automating Skills: The Differential Role of Human Capital in Generative AI's Impact on Creative Tasks [4.39919134458872]
ジェネレーティブAIは、創造的な仕事を急速に作り直し、その受益者や社会的意味について批判的な疑問を提起している。
この研究は、創造的タスクにおいて、生成的AIが様々な形態の人的資本とどのように相互作用するかを探求することによって、一般的な仮定に挑戦する。
AIはクリエイティブツールへのアクセスを民主化するが、同時に認知的不平等を増幅する。
論文 参考訳(メタデータ) (2024-12-05T08:27:14Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - Building Artificial Intelligence with Creative Agency and Self-hood [0.0]
本論文は,最終ページで紹介された論文の学術的概要について紹介する。
自己触媒ネットワークの形式的枠組みは、自己組織化された自己維持構造の起源をモデル化する手段を提供する。
論文 参考訳(メタデータ) (2024-06-09T22:28:11Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。