論文の概要: When Should an AI Act? A Human-Centered Model of Scene, Context, and Behavior for Agentic AI Design
- arxiv url: http://arxiv.org/abs/2602.22814v1
- Date: Thu, 26 Feb 2026 09:56:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.632366
- Title: When Should an AI Act? A Human-Centered Model of Scene, Context, and Behavior for Agentic AI Design
- Title(参考訳): AI行為はいつ行うべきか : エージェントAI設計のためのシーン、コンテキスト、行動の人間中心モデル
- Authors: Soyoung Jung, Daehoo Yoon, Sung Gyu Koh, Young Hwan Kim, Yehan Ahn, Sung Park,
- Abstract要約: エージェントAIは、コンテキストデータからユーザの状況を推測することによって、積極的に介入する。
本稿では,解釈的場面,文脈,行動要因を組み込んだ結果として振舞いを再構成する概念モデルを提案する。
介入の深さ、タイミング、強度、抑制を導く5つのエージェント設計原則を導出します。
- 参考スコア(独自算出の注目度): 0.44743648495907423
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Agentic AI increasingly intervenes proactively by inferring users' situations from contextual data yet often fails for lack of principled judgment about when, why, and whether to act. We address this gap by proposing a conceptual model that reframes behavior as an interpretive outcome integrating Scene (observable situation), Context (user-constructed meaning), and Human Behavior Factors (determinants shaping behavioral likelihood). Grounded in multidisciplinary perspectives across the humanities, social sciences, HCI, and engineering, the model separates what is observable from what is meaningful to the user and explains how the same scene can yield different behavioral meanings and outcomes. To translate this lens into design action, we derive five agent design principles (behavioral alignment, contextual sensitivity, temporal appropriateness, motivational calibration, and agency preservation) that guide intervention depth, timing, intensity, and restraint. Together, the model and principles provide a foundation for designing agentic AI systems that act with contextual sensitivity and judgment in interactions.
- Abstract(参考訳): エージェントAIは、コンテキストデータからユーザの状況を推測することで積極的に介入するが、いつ、なぜ、行動すべきかに関する原則的な判断が欠如しているため、しばしば失敗する。
このギャップに対処するために,Scene(観測可能な状況),Context(ユーザ構成された意味),Human Behavior Factors(行動の可能性を形作る決定要因)を統合した解釈結果として行動を再編成する概念モデルを提案する。
人文科学、社会科学、HCI、工学など多分野にまたがる視点で構築されたこのモデルは、観察可能なものとユーザにとって意味のあるものとを区別し、同じシーンがどのような振る舞いの意味や結果をもたらすかを説明する。
このレンズを設計行動に変換するために、介入深度、タイミング、強度、抑制を導く5つのエージェント設計原則(行動アライメント、文脈感度、時間的適切性、モチベーション校正、エージェンシー保存)を導出する。
このモデルと原則は、相互作用における文脈的感度と判断で機能するエージェントAIシステムを設計するための基盤を提供する。
関連論文リスト
- Agentic Reasoning for Large Language Models [122.81018455095999]
推論は推論、問題解決、意思決定の基礎となる基本的な認知プロセスである。
大規模言語モデル(LLM)は、クローズドワールド設定では強力な推論能力を示すが、オープンエンドおよび動的環境では苦労する。
エージェント推論は、連続的な相互作用を計画し、行動し、学習する自律的なエージェントとしてLLMを解釈することでパラダイムシフトを示す。
論文 参考訳(メタデータ) (2026-01-18T18:58:23Z) - OntoPret: An Ontology for the Interpretation of Human Behavior [0.024466725954625887]
テクノ中心のロボットフレームワークの間には研究のギャップがあり、人間の行動の微妙なモデルや協調的な解釈がしばしば欠けている。
本稿では,人間の行動解釈の適応性であるOntoPretを提示することにより,このギャップに対処する。
論文 参考訳(メタデータ) (2025-10-27T17:28:51Z) - DeceptionBench: A Comprehensive Benchmark for AI Deception Behaviors in Real-world Scenarios [57.327907850766785]
現実的な現実のシナリオにまたがる騙しのキャラクタリゼーションは未解明のままである。
DeceptionBenchは、さまざまなドメインにまたがる認知傾向を体系的に評価する最初のベンチマークです。
本研究は,本質的な側面から,ユーザ満足度を優先する自己関心のエゴスティックな傾向を示すモデルや,サイコファンティックな行動を示すモデルについて検討する。
実世界のフィードバックダイナミクスのより現実的なシミュレーションを構築するために,持続的マルチターン相互作用ループを組み込んだ。
論文 参考訳(メタデータ) (2025-10-17T10:14:26Z) - The Agent Behavior: Model, Governance and Challenges in the AI Digital Age [13.689486430780518]
AIの進歩は、ネットワーク化された環境でエージェントが人間の振る舞いを反映するようになる。
本稿では,ネットワークの挙動を6段階に分割し,各段階における人間とエージェントの行動差を系統的に解析するネットワーク行動ライフサイクルモデルを提案する。
エージェントのためのエージェント(A4A)パラダイムと,5次元にわたる人間とエージェントの行動の根本的な区別を考察したHuman-Agent Behavioral Disparity(HABD)モデルについても紹介する。
論文 参考訳(メタデータ) (2025-08-20T04:24:55Z) - Intention-Guided Cognitive Reasoning for Egocentric Long-Term Action Anticipation [52.6091162517921]
INSIGHTは、エゴセントリックなアクション予測のための2段階のフレームワークである。
最初の段階では、INSIGHTは手動オブジェクトの相互作用領域から意味的にリッチな特徴を抽出することに焦点を当てている。
第2段階では、明示的な認知的推論をシミュレートする強化学習ベースのモジュールを導入する。
論文 参考訳(メタデータ) (2025-08-03T12:52:27Z) - AI Agent Behavioral Science [29.262537008412412]
AIエージェント行動科学は、行動の体系的な観察、仮説をテストするための介入の設計、そしてAIエージェントが時間とともにどのように行動し、適応し、相互作用するかの理論的指導による解釈に焦点を当てている。
我々は、個々のエージェント、マルチエージェント、人間とエージェントのインタラクション設定にまたがる研究の体系化を行い、この視点が、公正さ、安全性、解釈可能性、説明責任、プライバシーを行動特性として扱うことによって、責任あるAIにどのように影響を与えるかを実証する。
論文 参考訳(メタデータ) (2025-06-04T08:12:32Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - CausalCity: Complex Simulations with Agency for Causal Discovery and
Reasoning [68.74447489372037]
本稿では,因果探索と反事実推論のためのアルゴリズムの開発を目的とした,高忠実度シミュレーション環境を提案する。
私たちの作業の中核となるコンポーネントは、複雑なシナリオを定義して作成することが簡単になるような、テキストの緊急性を導入することです。
我々は3つの最先端の手法による実験を行い、ベースラインを作成し、この環境の可利用性を強調する。
論文 参考訳(メタデータ) (2021-06-25T00:21:41Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。