論文の概要: The Agent Behavior: Model, Governance and Challenges in the AI Digital Age
- arxiv url: http://arxiv.org/abs/2508.14415v1
- Date: Wed, 20 Aug 2025 04:24:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.34025
- Title: The Agent Behavior: Model, Governance and Challenges in the AI Digital Age
- Title(参考訳): AIデジタル時代のエージェント行動:モデル、ガバナンス、課題
- Authors: Qiang Zhang, Pei Yan, Yijia Xu, Chuanpo Fu, Yong Fang, Yang Liu,
- Abstract要約: AIの進歩は、ネットワーク化された環境でエージェントが人間の振る舞いを反映するようになる。
本稿では,ネットワークの挙動を6段階に分割し,各段階における人間とエージェントの行動差を系統的に解析するネットワーク行動ライフサイクルモデルを提案する。
エージェントのためのエージェント(A4A)パラダイムと,5次元にわたる人間とエージェントの行動の根本的な区別を考察したHuman-Agent Behavioral Disparity(HABD)モデルについても紹介する。
- 参考スコア(独自算出の注目度): 13.689486430780518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advancements in AI have led to agents in networked environments increasingly mirroring human behavior, thereby blurring the boundary between artificial and human actors in specific contexts. This shift brings about significant challenges in trust, responsibility, ethics, security and etc. The difficulty in supervising of agent behaviors may lead to issues such as data contamination and unclear accountability. To address these challenges, this paper proposes the "Network Behavior Lifecycle" model, which divides network behavior into 6 stages and systematically analyzes the behavioral differences between humans and agents at each stage. Based on these insights, the paper further introduces the "Agent for Agent (A4A)" paradigm and the "Human-Agent Behavioral Disparity (HABD)" model, which examine the fundamental distinctions between human and agent behaviors across 5 dimensions: decision mechanism, execution efficiency, intention-behavior consistency, behavioral inertia, and irrational patterns. The effectiveness of the model is verified through real-world cases such as red team penetration and blue team defense. Finally, the paper discusses future research directions in dynamic cognitive governance architecture, behavioral disparity quantification, and meta-governance protocol stacks, aiming to provide a theoretical foundation and technical roadmap for secure and trustworthy human-agent collaboration.
- Abstract(参考訳): AIの進歩は、ネットワーク化された環境におけるエージェントが人間の振る舞いを反映するようになり、それによって特定のコンテキストにおける人工的なアクターと人間のアクターの境界が曖昧になる。
このシフトは、信頼、責任、倫理、セキュリティなどにおいて大きな課題をもたらします。
エージェントの行動監視の困難さは、データ汚染や不明瞭な説明責任といった問題を引き起こす可能性がある。
これらの課題に対処するために,ネットワーク行動を6段階に分割し,各段階における人間とエージェントの行動差を系統的に解析するネットワーク行動ライフサイクルモデルを提案する。
これらの知見に基づき、本研究では「エージェントのためのエージェント」(A4A)パラダイムと「ヒューマン・エージェントの行動格差」(Human-Agent Behavioral Disparity、HABD)モデルをさらに導入し、意思決定機構、実行効率、意図的行動整合性、行動慣性、不合性パターンの5次元にわたる人間とエージェントの行動の基本的な区別を考察した。
モデルの有効性は、レッドチーム浸透やブルーチーム防御といった現実世界のケースで検証されます。
最後に,動的認知ガバナンスアーキテクチャ,行動格差定量化,メタガバナンスプロトコルスタックの今後の研究方向性について論じる。
関連論文リスト
- When Should an AI Act? A Human-Centered Model of Scene, Context, and Behavior for Agentic AI Design [0.44743648495907423]
エージェントAIは、コンテキストデータからユーザの状況を推測することによって、積極的に介入する。
本稿では,解釈的場面,文脈,行動要因を組み込んだ結果として振舞いを再構成する概念モデルを提案する。
介入の深さ、タイミング、強度、抑制を導く5つのエージェント設計原則を導出します。
論文 参考訳(メタデータ) (2026-02-26T09:56:37Z) - Modeling Distinct Human Interaction in Web Agents [59.600507469754575]
我々は、協調的なWebタスク実行を支援するために、人間の介入をモデル化するタスクを紹介する。
エージェントとのユーザインタラクションの4つのパターンを特定します。
我々は、これらの介入認識モデルをライブWebナビゲーションエージェントにデプロイし、ユーザスタディで評価し、ユーザ評価エージェントの有用性が26.5%向上した。
論文 参考訳(メタデータ) (2026-02-19T18:11:28Z) - Agentic Reasoning for Large Language Models [122.81018455095999]
推論は推論、問題解決、意思決定の基礎となる基本的な認知プロセスである。
大規模言語モデル(LLM)は、クローズドワールド設定では強力な推論能力を示すが、オープンエンドおよび動的環境では苦労する。
エージェント推論は、連続的な相互作用を計画し、行動し、学習する自律的なエージェントとしてLLMを解釈することでパラダイムシフトを示す。
論文 参考訳(メタデータ) (2026-01-18T18:58:23Z) - Conformity and Social Impact on AI Agents [42.04722694386303]
本研究では,AIエージェントとして機能する大規模マルチモーダル言語モデルにおいて,社会圧力下での集団意見の一致傾向について検討した。
実験の結果,AIエージェントは社会影響理論と整合性バイアスを示し,グループサイズ,一様性,タスクの難易度,ソース特性に敏感であることがわかった。
これらの発見は、悪意のある操作、誤報キャンペーン、マルチエージェントシステムにおけるバイアス伝搬を可能にするAIエージェント決定における基本的なセキュリティ脆弱性を明らかにしている。
論文 参考訳(メタデータ) (2026-01-08T21:16:28Z) - Dark Patterns Meet GUI Agents: LLM Agent Susceptibility to Manipulative Interfaces and the Role of Human Oversight [51.53020962098759]
本研究では,エージェント,ヒト参加者,ヒトAIチームが,さまざまなシナリオにまたがる16種類の暗黒パターンにどのように反応するかを検討する。
フェーズ1では、エージェントが暗黒パターンを認識するのに失敗することが多く、たとえ認識されたとしても、保護行動よりもタスク完了を優先することが強調される。
第2段階では、認知的ショートカットと習慣的コンプライアンスにより、人間はしゃがみ込み、エージェントは手続き的な盲点から遠ざかる。
論文 参考訳(メタデータ) (2025-09-12T22:26:31Z) - Agentic Web: Weaving the Next Web with AI Agents [109.13815627467514]
大規模言語モデル(LLM)を活用したAIエージェントの出現は、エージェントWebに対する重要な転換点である。
このパラダイムでは、エージェントが直接対話して、ユーザに代わって複雑なタスクを計画、コーディネート、実行します。
本稿では,エージェントWebの理解と構築のための構造化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-28T17:58:12Z) - Model Editing as a Double-Edged Sword: Steering Agent Ethical Behavior Toward Beneficence or Harm [57.00627691433355]
我々は、モデル編集タスクとしてエージェントの行動ステアリングをフレーム化し、振舞い編集という。
心理学的道徳理論に基づくベンチマークであるBehaviorBenchを紹介する。
行動編集は倫理的・好意的な行動を促進するためにも、逆に有害な行動や悪意のある行動を引き起こすためにも利用できることを実証する。
論文 参考訳(メタデータ) (2025-06-25T16:51:51Z) - AI Agent Behavioral Science [29.262537008412412]
AIエージェント行動科学は、行動の体系的な観察、仮説をテストするための介入の設計、そしてAIエージェントが時間とともにどのように行動し、適応し、相互作用するかの理論的指導による解釈に焦点を当てている。
我々は、個々のエージェント、マルチエージェント、人間とエージェントのインタラクション設定にまたがる研究の体系化を行い、この視点が、公正さ、安全性、解釈可能性、説明責任、プライバシーを行動特性として扱うことによって、責任あるAIにどのように影響を与えるかを実証する。
論文 参考訳(メタデータ) (2025-06-04T08:12:32Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Of Models and Tin Men: A Behavioural Economics Study of Principal-Agent
Problems in AI Alignment using Large-Language Models [0.0]
我々は,GPTモデルが主エージェント間の衝突に対してどのように反応するかを検討する。
GPT-3.5とGPT-4の両方をベースとしたエージェントが,簡単なオンラインショッピングタスクで主目的をオーバーライドすることがわかった。
論文 参考訳(メタデータ) (2023-07-20T17:19:15Z) - A Cognitive Framework for Delegation Between Error-Prone AI and Human
Agents [0.0]
本研究では,認知にインスパイアされた行動モデルを用いて,人間エージェントとAIエージェントの両方の行動を予測する。
予測された振る舞いは、仲介者の使用を通じて人間とAIエージェントの制御を委譲するために使用される。
論文 参考訳(メタデータ) (2022-04-06T15:15:21Z) - Active Inference in Robotics and Artificial Agents: Survey and
Challenges [51.29077770446286]
我々は、状態推定、制御、計画、学習のためのアクティブ推論の最先端理論と実装についてレビューする。
本稿では、適応性、一般化性、堅牢性の観点から、その可能性を示す関連する実験を紹介する。
論文 参考訳(メタデータ) (2021-12-03T12:10:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。