論文の概要: Visioning Human-Agentic AI Teaming: Continuity, Tension, and Future Research
- arxiv url: http://arxiv.org/abs/2603.04746v1
- Date: Thu, 05 Mar 2026 02:40:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.043897
- Title: Visioning Human-Agentic AI Teaming: Continuity, Tension, and Future Research
- Title(参考訳): AIチームのビジョン - 継続性、緊張、今後の研究
- Authors: Bowen Lou, Tian Lu, T. S. Raghu, Yingjie Zhang,
- Abstract要約: オープンエンドアクショントラジェクトリが可能なエージェントシステムは、人間とAIのコラボレーションに構造的不確実性をもたらす。
チーム状況認識(Team situation Awareness, チームSA)理論は、共有された認識が一度達成されれば、反復的な更新を通じて協調された行動をサポートすると仮定する。
まず、オープン・エンド・エージェンシーの下で、人間とAIの両方の認識を再認識するためにTeam SAを拡張します。
第二に、リレーショナルインタラクション、認知学習、調整と制御において、伝統的にチームの安定化を前提とした動的なプロセスが、適応的な自律の下で機能し続けるかどうかを問う。
- 参考スコア(独自算出の注目度): 2.5609468301546485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence is undergoing a structural transformation marked by the rise of agentic systems capable of open-ended action trajectories, generative representations and outputs, and evolving objectives. These properties introduce structural uncertainty into human-AI teaming (HAT), including uncertainty about behavior trajectories, epistemic grounding, and the stability of governing logics over time. Under such conditions, alignment cannot be secured through agreement on bounded outputs; it must be continuously sustained as plans unfold and priorities shift. We advance Team Situation Awareness (Team SA) theory, grounded in shared perception, comprehension, and projection, as an integrative anchor for this transition. While Team SA remains analytically foundational, its stabilizing logic presumes that shared awareness, once achieved, will support coordinated action through iterative updating. Agentic AI challenges this presumption. Our argument unfolds in two stages: first, we extend Team SA to reconceptualize both human and AI awareness under open-ended agency, including the sensemaking of projection congruence across heterogeneous systems. Second, we interrogate whether the dynamic processes traditionally assumed to stabilize teaming in relational interaction, cognitive learning, and coordination and control continue to function under adaptive autonomy. By distinguishing continuity from tension, we clarify where foundational insights hold and where structural uncertainty introduces strain, and articulate a forward-looking research agenda for HAT. The central challenge of HAT is not whether humans and AI can agree in the moment, but whether they can remain aligned as futures are continuously generated, revised, enacted, and governed over time.
- Abstract(参考訳): 人工知能は、オープンエンドな行動軌跡、生成的表現と出力、そして進化する目的を持つエージェントシステムの台頭を特徴とする構造的変化を経験している。
これらの性質は、人間のAIチーム(HAT)に構造的不確実性をもたらす。
このような条件下では、アライメントは境界出力に関する合意によっては確保できない。
私たちは、この移行のための統合的アンカーとして、共通の認識、理解、投射に基づくチーム状況認識(Team situation Awareness, Team SA)理論を前進させます。
Team SAは分析的に基礎を保っているが、その安定化ロジックは、共有された認識が一度達成されれば、反復的な更新を通じて協調されたアクションをサポートすると仮定している。
エージェントAIはこの推定に挑戦する。
まず、私たちはTeam SAを拡張して、異種システム間のプロジェクションの一致の感覚形成を含む、オープンエンドエージェンシーの下での人間とAIの認識を再認識します。
第二に、リレーショナルインタラクション、認知学習、調整と制御において、伝統的にチームの安定化を前提とした動的なプロセスが、適応的な自律の下で機能し続けるかどうかを問う。
緊張と連続性を区別することにより,構造的不確実性が歪を生じさせるのか,根本的洞察がどこにあるのかを明らかにするとともに,HATの先進的な研究課題を明確にする。
HATの中心的な課題は、現段階で人間とAIが合意できるかどうかではなく、未来が継続的に生成され、修正され、制定され、時間が経つにつれて支配され続けることができるかどうかである。
関連論文リスト
- The Devil Behind Moltbook: Anthropic Safety is Always Vanishing in Self-Evolving AI Societies [57.387081435669835]
大規模言語モデルから構築されたマルチエージェントシステムは、スケーラブルな集合知性と自己進化のための有望なパラダイムを提供する。
エージェント社会が継続的自己進化、完全隔離、安全性の不変性を満たすことは不可能であることを示す。
我々は、特定された安全上の懸念を軽減するために、いくつかの解決方法を提案する。
論文 参考訳(メタデータ) (2026-02-10T15:18:19Z) - Agentic Reasoning for Large Language Models [122.81018455095999]
推論は推論、問題解決、意思決定の基礎となる基本的な認知プロセスである。
大規模言語モデル(LLM)は、クローズドワールド設定では強力な推論能力を示すが、オープンエンドおよび動的環境では苦労する。
エージェント推論は、連続的な相互作用を計画し、行動し、学習する自律的なエージェントとしてLLMを解釈することでパラダイムシフトを示す。
論文 参考訳(メタデータ) (2026-01-18T18:58:23Z) - The Path Ahead for Agentic AI: Challenges and Opportunities [4.52683540940001]
この章では、複雑な環境で自律的に動作するエージェントAIシステムの出現について考察する。
我々は、統計モデルからトランスフォーマーベースのシステムへのアーキテクチャの進歩を辿り、エージェントの振る舞いを可能にする能力を識別する。
既存の調査とは異なり、私たちは、言語理解から自律的な行動へのアーキテクチャの移行に注目し、デプロイ前に解決しなければならない技術的ギャップを強調します。
論文 参考訳(メタデータ) (2026-01-06T06:31:42Z) - Managing Ambiguity: A Proof of Concept of Human-AI Symbiotic Sense-making based on Quantum-Inspired Cognitive Mechanism of Rogue Variable Detection [39.146761527401424]
この研究は、あいまいさを一級構成とすることで管理理論に寄与する。
VUCA環境における組織的レジリエンスに対する人間-AI共生の実践的価値を示す。
論文 参考訳(メタデータ) (2025-12-17T11:23:18Z) - AI Deception: Risks, Dynamics, and Controls [153.71048309527225]
このプロジェクトは、AI偽装分野の包括的で最新の概要を提供する。
我々は、動物の偽装の研究からシグナル伝達理論に基づく、AI偽装の正式な定義を同定する。
我々は,AI偽装研究の展望を,偽装発生と偽装処理の2つの主要な構成要素からなる偽装サイクルとして整理する。
論文 参考訳(メタデータ) (2025-11-27T16:56:04Z) - Making LLMs Reliable When It Matters Most: A Five-Layer Architecture for High-Stakes Decisions [51.56484100374058]
現在の大規模言語モデル(LLM)は、実行前にアウトプットをチェックできるが、不確実な結果を伴う高い戦略決定には信頼性が低い検証可能な領域で優れている。
このギャップは、人間と人工知能(AI)システムの相互認知バイアスによって引き起こされ、そのセクターにおける評価と投資の持続可能性の保証を脅かす。
本報告では、7つのフロンティアグレードLDMと3つの市場向けベンチャーヴィグネットの時間的圧力下での系統的質的評価から生まれた枠組みについて述べる。
論文 参考訳(メタデータ) (2025-11-10T22:24:21Z) - Agentic Services Computing [51.50424046053763]
本稿では,自律的,適応的,協調的なエージェントとしてサービスを再定義するパラダイムであるエージェントサービスコンピューティングを提案する。
ASCは、設計、デプロイ、運用、進化という4段階のライフサイクルを包含しています。
論文 参考訳(メタデータ) (2025-09-29T07:29:18Z) - Rational Superautotrophic Diplomacy (SupraAD); A Conceptual Framework for Alignment Based on Interdisciplinary Findings on the Fundamentals of Cognition [0.0]
ラショナル超独立外交(Rational Superautotrophic Diplomacy, SupraAD)は、アライメントのための理論的、学際的な概念的枠組みである。
認知システム分析と器質的合理性モデリングに着目する。
SupraADは、AIより前の課題としてアライメントを再構築し、十分に複雑で協調的なインテリジェンスを損なう。
論文 参考訳(メタデータ) (2025-06-03T17:28:25Z) - Human-AI Governance (HAIG): A Trust-Utility Approach [0.0]
本稿では,人間とAIの関係が進化する中で,信頼のダイナミクスを分析するためのHAIGフレームワークを紹介する。
我々の分析は、自己監督、推論権限、分散意思決定の技術的進歩が、不均一な信頼の進化をいかに引き起こすかを明らかにする。
論文 参考訳(メタデータ) (2025-05-03T01:57:08Z) - Position: Towards Bidirectional Human-AI Alignment [109.57781720848669]
我々は、人間とAIの双方向的・動的関係を説明するために、研究コミュニティは「調整」を明確に定義し、批判的に反映すべきであると主張する。
このフレームワークは、AIと人間の価値を整合させる従来の取り組みを取り入れているだけでなく、人間とAIを整合させるという、重要で未解明の次元も導入しています。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Agent Teaming Situation Awareness (ATSA): A Situation Awareness
Framework for Human-AI Teaming [10.712812672157611]
本稿では,主要なSA理論モデルとHAT文脈におけるSAのための新しいフレームワークについてレビューする。
Agent Teaming situation Awareness (ATSA)フレームワークは、人間とAIの振る舞いを統一し、双方向、動的相互作用を含む。
論文 参考訳(メタデータ) (2023-08-31T15:02:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。