論文の概要: The Agent Behavior: Model, Governance and Challenges in the AI Digital Age
- arxiv url: http://arxiv.org/abs/2508.14415v1
- Date: Wed, 20 Aug 2025 04:24:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.34025
- Title: The Agent Behavior: Model, Governance and Challenges in the AI Digital Age
- Title(参考訳): AIデジタル時代のエージェント行動:モデル、ガバナンス、課題
- Authors: Qiang Zhang, Pei Yan, Yijia Xu, Chuanpo Fu, Yong Fang, Yang Liu,
- Abstract要約: AIの進歩は、ネットワーク化された環境でエージェントが人間の振る舞いを反映するようになる。
本稿では,ネットワークの挙動を6段階に分割し,各段階における人間とエージェントの行動差を系統的に解析するネットワーク行動ライフサイクルモデルを提案する。
エージェントのためのエージェント(A4A)パラダイムと,5次元にわたる人間とエージェントの行動の根本的な区別を考察したHuman-Agent Behavioral Disparity(HABD)モデルについても紹介する。
- 参考スコア(独自算出の注目度): 13.689486430780518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advancements in AI have led to agents in networked environments increasingly mirroring human behavior, thereby blurring the boundary between artificial and human actors in specific contexts. This shift brings about significant challenges in trust, responsibility, ethics, security and etc. The difficulty in supervising of agent behaviors may lead to issues such as data contamination and unclear accountability. To address these challenges, this paper proposes the "Network Behavior Lifecycle" model, which divides network behavior into 6 stages and systematically analyzes the behavioral differences between humans and agents at each stage. Based on these insights, the paper further introduces the "Agent for Agent (A4A)" paradigm and the "Human-Agent Behavioral Disparity (HABD)" model, which examine the fundamental distinctions between human and agent behaviors across 5 dimensions: decision mechanism, execution efficiency, intention-behavior consistency, behavioral inertia, and irrational patterns. The effectiveness of the model is verified through real-world cases such as red team penetration and blue team defense. Finally, the paper discusses future research directions in dynamic cognitive governance architecture, behavioral disparity quantification, and meta-governance protocol stacks, aiming to provide a theoretical foundation and technical roadmap for secure and trustworthy human-agent collaboration.
- Abstract(参考訳): AIの進歩は、ネットワーク化された環境におけるエージェントが人間の振る舞いを反映するようになり、それによって特定のコンテキストにおける人工的なアクターと人間のアクターの境界が曖昧になる。
このシフトは、信頼、責任、倫理、セキュリティなどにおいて大きな課題をもたらします。
エージェントの行動監視の困難さは、データ汚染や不明瞭な説明責任といった問題を引き起こす可能性がある。
これらの課題に対処するために,ネットワーク行動を6段階に分割し,各段階における人間とエージェントの行動差を系統的に解析するネットワーク行動ライフサイクルモデルを提案する。
これらの知見に基づき、本研究では「エージェントのためのエージェント」(A4A)パラダイムと「ヒューマン・エージェントの行動格差」(Human-Agent Behavioral Disparity、HABD)モデルをさらに導入し、意思決定機構、実行効率、意図的行動整合性、行動慣性、不合性パターンの5次元にわたる人間とエージェントの行動の基本的な区別を考察した。
モデルの有効性は、レッドチーム浸透やブルーチーム防御といった現実世界のケースで検証されます。
最後に,動的認知ガバナンスアーキテクチャ,行動格差定量化,メタガバナンスプロトコルスタックの今後の研究方向性について論じる。
関連論文リスト
- Agentic Web: Weaving the Next Web with AI Agents [109.13815627467514]
大規模言語モデル(LLM)を活用したAIエージェントの出現は、エージェントWebに対する重要な転換点である。
このパラダイムでは、エージェントが直接対話して、ユーザに代わって複雑なタスクを計画、コーディネート、実行します。
本稿では,エージェントWebの理解と構築のための構造化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-28T17:58:12Z) - Model Editing as a Double-Edged Sword: Steering Agent Ethical Behavior Toward Beneficence or Harm [57.00627691433355]
我々は、モデル編集タスクとしてエージェントの行動ステアリングをフレーム化し、振舞い編集という。
心理学的道徳理論に基づくベンチマークであるBehaviorBenchを紹介する。
行動編集は倫理的・好意的な行動を促進するためにも、逆に有害な行動や悪意のある行動を引き起こすためにも利用できることを実証する。
論文 参考訳(メタデータ) (2025-06-25T16:51:51Z) - AI Agent Behavioral Science [29.262537008412412]
AIエージェント行動科学は、行動の体系的な観察、仮説をテストするための介入の設計、そしてAIエージェントが時間とともにどのように行動し、適応し、相互作用するかの理論的指導による解釈に焦点を当てている。
我々は、個々のエージェント、マルチエージェント、人間とエージェントのインタラクション設定にまたがる研究の体系化を行い、この視点が、公正さ、安全性、解釈可能性、説明責任、プライバシーを行動特性として扱うことによって、責任あるAIにどのように影響を与えるかを実証する。
論文 参考訳(メタデータ) (2025-06-04T08:12:32Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Of Models and Tin Men: A Behavioural Economics Study of Principal-Agent
Problems in AI Alignment using Large-Language Models [0.0]
我々は,GPTモデルが主エージェント間の衝突に対してどのように反応するかを検討する。
GPT-3.5とGPT-4の両方をベースとしたエージェントが,簡単なオンラインショッピングタスクで主目的をオーバーライドすることがわかった。
論文 参考訳(メタデータ) (2023-07-20T17:19:15Z) - A Cognitive Framework for Delegation Between Error-Prone AI and Human
Agents [0.0]
本研究では,認知にインスパイアされた行動モデルを用いて,人間エージェントとAIエージェントの両方の行動を予測する。
予測された振る舞いは、仲介者の使用を通じて人間とAIエージェントの制御を委譲するために使用される。
論文 参考訳(メタデータ) (2022-04-06T15:15:21Z) - Active Inference in Robotics and Artificial Agents: Survey and
Challenges [51.29077770446286]
我々は、状態推定、制御、計画、学習のためのアクティブ推論の最先端理論と実装についてレビューする。
本稿では、適応性、一般化性、堅牢性の観点から、その可能性を示す関連する実験を紹介する。
論文 参考訳(メタデータ) (2021-12-03T12:10:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。