論文の概要: AI Agents and the Law
- arxiv url: http://arxiv.org/abs/2508.08544v1
- Date: Tue, 12 Aug 2025 01:18:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.26361
- Title: AI Agents and the Law
- Title(参考訳): AIエージェントと法
- Authors: Mark O. Riedl, Deven R. Desai,
- Abstract要約: 我々は、エージェントの技術的な概念が、エージェンシーの社会法的概念の一部を追跡するが、全てではないことを示す。
機関法における暗黙の権威とAIにおける価値アライメントの原理の相関について検討する。
- 参考スコア(独自算出の注目度): 17.712990593093316
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As AI becomes more "agentic," it faces technical and socio-legal issues it must address if it is to fulfill its promise of increased economic productivity and efficiency. This paper uses technical and legal perspectives to explain how things change when AI systems start being able to directly execute tasks on behalf of a user. We show how technical conceptions of agents track some, but not all, socio-legal conceptions of agency. That is, both computer science and the law recognize the problems of under-specification for an agent, and both disciplines have robust conceptions of how to address ensuring an agent does what the programmer, or in the law, the principal desires and no more. However, to date, computer science has under-theorized issues related to questions of loyalty and to third parties that interact with an agent, both of which are central parts of the law of agency. First, we examine the correlations between implied authority in agency law and the principle of value-alignment in AI, wherein AI systems must operate under imperfect objective specification. Second, we reveal gaps in the current computer science view of agents pertaining to the legal concepts of disclosure and loyalty, and how failure to account for them can result in unintended effects in AI ecommerce agents. In surfacing these gaps, we show a path forward for responsible AI agent development and deployment.
- Abstract(参考訳): AIがより“芸術的”になるにつれて、経済的生産性と効率の向上という約束を果たすためには、技術的および社会法的問題に対処しなければならない。
本稿では,AIシステムがユーザに代わってタスクを直接実行し始めると,状況がどう変化するかを説明するために,技術的および法的視点を用いる。
我々は、エージェントの技術的な概念が、エージェンシーの社会法的概念の一部を追跡するが、全てではないことを示す。
すなわち、コンピュータ科学と法律の両方がエージェントの過小評価の問題を認識しており、どちらの分野も、エージェントがプログラマや法律で何を行うかを確実にする方法について、しっかりとした概念を持っている。
しかし、これまでコンピュータ科学は、忠誠の問いやエージェントと対話する第三者(どちらも機関法の中心的な部分)に関する問題を、あまり理論化していない。
まず,エージェント法における暗黙の権威とAIにおける価値アライメントの原理との相関について検討する。
第2に、開示と忠誠の法的概念に関連するエージェントに対する現在のコンピュータサイエンスの見解のギャップと、それらを説明するのに失敗すると、AIのEコマースエージェントに意図しない影響が生じる可能性があることを明らかにする。
これらのギャップを克服するために、私たちは責任あるAIエージェントの開発とデプロイメントへの道を示す。
関連論文リスト
- Agentic Web: Weaving the Next Web with AI Agents [109.13815627467514]
大規模言語モデル(LLM)を活用したAIエージェントの出現は、エージェントWebに対する重要な転換点である。
このパラダイムでは、エージェントが直接対話して、ユーザに代わって複雑なタスクを計画、コーディネート、実行します。
本稿では,エージェントWebの理解と構築のための構造化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-28T17:58:12Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Responsible AI Agents [17.712990593093316]
OpenAI、Google、Microsoft、Salesforceといった企業は、AI Agentsが受動的テキストからタスク実行に移行することを約束している。
AIエージェントの潜在的なパワーは、AIエージェントが不正な商取引、人間の操作、爆発的な破壊、知的財産の被害を可能にするという法律学者の恐れを加速させた。
この記事では、AIエージェントの方向性に関する懸念に対処する。
それは、あるソフトウェアが別のソフトウェアとどのように相互作用するかという中核的な側面が、AIエージェントを規律づける方法を生み出し、望ましくない行動が起こりそうにないことを示している。
論文 参考訳(メタデータ) (2025-02-25T16:49:06Z) - Agentic AI: Autonomy, Accountability, and the Algorithmic Society [0.2209921757303168]
エージェント人工知能(AI)は、自律的に長期的な目標を追求し、意思決定を行い、複雑なマルチターンを実行することができる。
この指導的役割から積極的執行課題への移行は、法的、経済的、創造的な枠組みを確立した。
我々は,創造性と知的財産,法的・倫理的考察,競争効果の3つの分野における課題を探求する。
論文 参考訳(メタデータ) (2025-02-01T03:14:59Z) - Governing AI Agents [0.2913760942403036]
本項では、主エージェント問題に関する経済理論と、機関関係に関する共通法学説を概観する。
それは、情報非対称性、差別的権威、忠誠といった問題を含む、AIエージェントから生じる問題を特定する。
包括性、可視性、責任のガバナンス原則をサポートするためには、新しい技術的および法的基盤が必要である、と氏は主張する。
論文 参考訳(メタデータ) (2025-01-14T07:55:18Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Designing Fiduciary Artificial Intelligence [0.0]
本稿では、コンピュータサイエンスと法学における最近の研究を合成し、学位AIを設計・監査するための手順を開発する。
学部AIの設計者は、システムのコンテキストを理解し、そのプリンシパルを特定し、それらのプリンシパルの最善の利益を評価する必要がある。
この手順のステップを、プライバシやアライメントといった信頼できるAIの次元に接続します。
論文 参考訳(メタデータ) (2023-07-27T15:35:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。