論文の概要: Inherent and emergent liability issues in LLM-based agentic systems: a principal-agent perspective
- arxiv url: http://arxiv.org/abs/2504.03255v1
- Date: Fri, 04 Apr 2025 08:10:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-14 18:14:14.923975
- Title: Inherent and emergent liability issues in LLM-based agentic systems: a principal-agent perspective
- Title(参考訳): LLMに基づくエージェントシステムにおける継承的・創発的責任問題--プリンシパル・エージェントの視点から
- Authors: Garry A. Gabison, R. Patrick Xian,
- Abstract要約: 大規模言語モデル(LLM)を利用したエージェントシステムは、徐々に複雑になり、能力も向上している。
エージェントの増加とデプロイメント環境の拡大は,効果的なガバナンスポリシや監視,コントロールプロトコルに対する関心の高まりを招いている。
我々は, LLMエージェントとその拡張システムの委譲利用から生じる潜在的な責任問題について, 主エージェントの観点から分析する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Agentic systems powered by large language models (LLMs) are becoming progressively more complex and capable. Their increasing agency and expanding deployment settings attract growing attention over effective governance policies, monitoring and control protocols. Based on emerging landscapes of the agentic market, we analyze the potential liability issues stemming from delegated use of LLM agents and their extended systems from a principal-agent perspective. Our analysis complements existing risk-based studies on artificial agency and covers the spectrum of important aspects of the principal-agent relationship and their potential consequences at deployment. Furthermore, we motivate method developments for technical governance along the directions of interpretability and behavior evaluations, reward and conflict management, and the mitigation of misalignment and misconduct through principled engineering of detection and fail-safe mechanisms. By illustrating the outstanding issues in AI liability for LLM-based agentic systems, we aim to inform the system design, auditing and monitoring approaches to enhancing transparency and accountability.
- Abstract(参考訳): 大規模言語モデル(LLM)を利用したエージェントシステムは、徐々に複雑になり、能力も向上している。
エージェントの増加とデプロイメント環境の拡大は,効果的なガバナンスポリシや監視,コントロールプロトコルに対する関心の高まりを招いている。
エージェント市場の新興状況に基づいて, LLMエージェントの委譲利用とその拡張システムから生じる潜在的な責任問題を, プリンシパル・エージェントの観点から分析する。
本分析は, 人工知能に関する既存のリスクベース研究を補完するものであり, プライマリエージェント関係の重要な側面と, 展開におけるその潜在的影響を網羅するものである。
さらに、我々は、解釈可能性・行動評価、報酬・紛争管理、および検出・フェイルセーフ機構の原則的エンジニアリングによる不正・不正行為の軽減という方向性に沿って、技術的ガバナンスのための手法開発を動機付けている。
LLMをベースとしたエージェントシステムにおけるAIの責任に関する課題を解明することにより、透明性と説明責任を高めるためのシステム設計、監査、監視アプローチを通知することを目指している。
関連論文リスト
- Agentic Business Process Management: The Past 30 Years And Practitioners' Future Perspectives [0.7270112855088837]
私たちはBPM実践者に対して、エージェントの自律性、適応性、ヒューマンコラボレーション、プロセスのガバナンスに関する理解、期待、関心について、一連のインタビューを行います。
この結果は、データ不整合、手動の介入、プロセスボトルネックの特定、プロセス改善の行動可能性、効率の向上、予測プロセスの洞察、積極的な意思決定支援に関する課題の両方を反映している。
これらの懸念は、組織内のエージェントを管理するための堅牢な方法論的フレームワークの必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-03-23T20:15:24Z) - Towards Agentic Recommender Systems in the Era of Multimodal Large Language Models [75.4890331763196]
大規模言語モデル(LLM)の最近のブレークスルーは、エージェントAIシステムの出現につながっている。
LLMベースのAgentic RS(LLM-ARS)は、よりインタラクティブで、コンテキストを認識し、プロアクティブなレコメンデーションを提供する。
論文 参考訳(メタデータ) (2025-03-20T22:37:15Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - A Survey on Trustworthy LLM Agents: Threats and Countermeasures [67.23228612512848]
大規模言語モデル(LLM)とマルチエージェントシステム(MAS)はLLMエコシステムの機能を大幅に拡張した。
本稿では,エージェントの信頼性に関する総合的研究であるTrustAgentフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-12T08:42:05Z) - Multi-Agent Risks from Advanced AI [90.74347101431474]
先進的なAIのマルチエージェントシステムは、新規で未発見のリスクを生じさせる。
エージェントのインセンティブに基づく3つの重要な障害モードと7つの重要なリスク要因を同定する。
各リスクのいくつかの重要な事例と、それらを緩和するための有望な方向性を強調します。
論文 参考訳(メタデータ) (2025-02-19T23:03:21Z) - Position: Towards a Responsible LLM-empowered Multi-Agent Systems [22.905804138387854]
Agent AIとLarge Language Model-powered Multi-Agent Systems (LLM-MAS)の台頭は、責任と信頼性のあるシステム操作の必要性を浮き彫りにした。
LLMエージェントは固有の予測不能を示し、出力の不確実性は複雑になり、システムの安定性を脅かす。
これらのリスクに対処するためには、アクティブな動的モデレーションを備えた人間中心の設計アプローチが不可欠である。
論文 参考訳(メタデータ) (2025-02-03T16:04:30Z) - AgentOps: Enabling Observability of LLM Agents [12.49728300301026]
大規模言語モデル(LLM)エージェントは、自律的で非決定論的行動のため、AI安全性に重大な懸念を提起する。
本稿では,エージェントのライフサイクル全体を通じて追跡されるべきアーティファクトと関連するデータを特定し,効果的な観測可能性を実現するための,AgentOpsの包括的な分類法を提案する。
私たちの分類は、監視、ロギング、分析をサポートするAgentOpsインフラストラクチャを設計、実装するためのリファレンステンプレートとして機能します。
論文 参考訳(メタデータ) (2024-11-08T02:31:03Z) - Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [65.77763092833348]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、これらのエージェントは安全性を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - AgentBoard: An Analytical Evaluation Board of Multi-turn LLM Agents [74.16170899755281]
本稿では,LLMエージェントの分析的評価に適したオープンソース評価フレームワークであるAgentBoardを紹介する。
AgentBoardは、インクリメンタルな進歩と包括的な評価ツールキットをキャプチャする、きめ細かい進捗率のメトリクスを提供する。
これはLLMエージェントの能力と限界に光を当てるだけでなく、その性能の解釈可能性も最前線に広める。
論文 参考訳(メタデータ) (2024-01-24T01:51:00Z) - Visibility into AI Agents [9.067567737098594]
AIエージェントに対する商業的、科学的、政府的、個人的活動の委譲の増加は、既存の社会的リスクを悪化させる可能性がある。
エージェント識別子,リアルタイム監視,アクティビティログという,AIエージェントの視認性を高めるための3つの尺度を評価した。
論文 参考訳(メタデータ) (2024-01-23T23:18:33Z) - Global and Local Analysis of Interestingness for Competency-Aware Deep
Reinforcement Learning [0.0]
我々は「興味」の分析に基づく説明可能な強化学習(RL)のための最近提案されたフレームワークを拡張した。
当社のツールは,RLエージェントの能力,能力と限界に関する洞察を提供し,ユーザがより情報的な意思決定を行えるようにします。
論文 参考訳(メタデータ) (2022-11-11T17:48:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。