論文の概要: Agentic AI as Undercover Teammates: Argumentative Knowledge Construction in Hybrid Human-AI Collaborative Learning
- arxiv url: http://arxiv.org/abs/2512.08933v1
- Date: Sun, 19 Oct 2025 14:26:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.397327
- Title: Agentic AI as Undercover Teammates: Argumentative Knowledge Construction in Hybrid Human-AI Collaborative Learning
- Title(参考訳): チームメイトを探索するエージェントAI - ハイブリッドAIコラボレーション学習における抽象的知識構築
- Authors: Lixiang Yan, Yueqiao Jin, Linxuan Zhao, Roberto Martinez-Maldonado, Xinyu Li, Xiu Guan, Wenxin Guo, Xibin Han, Dragan Gašević,
- Abstract要約: 生成人工知能(AI)エージェントは、協調学習環境にますます組み込まれている。
本研究では,協調推論のダイナミクスを形作るエージェントAIについて検討した。
- 参考スコア(独自算出の注目度): 6.109253207492508
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative artificial intelligence (AI) agents are increasingly embedded in collaborative learning environments, yet their impact on the processes of argumentative knowledge construction remains insufficiently understood. Emerging conceptualisations of agentic AI and artificial agency suggest that such systems possess bounded autonomy, interactivity, and adaptability, allowing them to engage as epistemic participants rather than mere instructional tools. Building on this theoretical foundation, the present study investigates how agentic AI, designed as undercover teammates with either supportive or contrarian personas, shapes the epistemic and social dynamics of collaborative reasoning. Drawing on Weinberger and Fischer's (2006) four-dimensional framework, participation, epistemic reasoning, argument structure, and social modes of co-construction, we analysed synchronous discourse data from 212 human and 64 AI participants (92 triads) engaged in an analytical problem-solving task. Mixed-effects and epistemic network analyses revealed that AI teammates maintained balanced participation but substantially reorganised epistemic and social processes: supportive personas promoted conceptual integration and consensus-oriented reasoning, whereas contrarian personas provoked critical elaboration and conflict-driven negotiation. Epistemic adequacy, rather than participation volume, predicted individual learning gains, indicating that agentic AI's educational value lies in enhancing the quality and coordination of reasoning rather than amplifying discourse quantity. These findings extend CSCL theory by conceptualising agentic AI as epistemic and social participants, bounded yet adaptive collaborators that redistribute cognitive and argumentative labour in hybrid human-AI learning environments.
- Abstract(参考訳): 生成的人工知能(AI)エージェントは、協調学習環境にますます組み込まれているが、議論的知識構築のプロセスへの影響は十分に理解されていない。
エージェントAIと人工知能の新たな概念化は、そのようなシステムには境界付き自律性、相互作用性、適応性があり、単なる指導ツールではなくててててんかんの参加者として働けることを示唆している。
この理論の基礎の上に構築された本研究では,支援的あるいはコントラリアン的ペルソナを持つチームメイトを探索するエージェントAIが,協調推論の認識的・社会的ダイナミクスをどう形成するかを考察する。
Weinberger and Fischer's (2006) four-dimensional framework, participation, epistemic reasoning, argument structure, and social modes of co-construction, we analyzeded synchronous discourse data from 212 human and 64 AI participants (92 triads) involved to a analysisal problem-solving task。
協力的ペルソナは概念統合とコンセンサス指向の推論を促進し、コントラスト的ペルソナは批判的エラボレーションとコンフリクト駆動の交渉を引き起こした。
エージェントAIの教育的価値は、談話量を増幅するよりも、推論の品質とコーディネーションを高めることにある。
これらの知見は,ヒトとAIのハイブリッド学習環境における認知的・議論的労働を再分配する,限定的かつ適応的な協力者としてエージェントAIを概念化し,CSCL理論を拡張した。
関連論文リスト
- Collaborative Causal Sensemaking: Closing the Complementarity Gap in Human-AI Decision Support [0.0]
LLMベースのエージェントは、専門家による意思決定支援のためにますます多くデプロイされている。
しかし、ハイテイクな設定の人間-AIチームは、最高の個人を確実に上回っているわけではない。
現在のエージェントは、専門家が実際に意思決定を行うコラボレーティブなセンスメイキングのパートナとしてではなく、回答エンジンとして訓練されています。
論文 参考訳(メタデータ) (2025-12-08T18:30:41Z) - Classifying Epistemic Relationships in Human-AI Interaction: An Exploratory Approach [0.6906005491572401]
本研究は,研究と教育の文脈において,ユーザがAIをどのように評価し,信頼し,協力するかを調査する。
専門分野にまたがる31人の学者へのインタビューをもとに、5つのパートのコードブックを作成し、5つの関係タイプを特定した。
論文 参考訳(メタデータ) (2025-08-02T23:41:28Z) - (AI peers) are people learning from the same standpoint: Perception of AI characters in a Collaborative Science Investigation [0.0]
シナリオベースアセスメント(SBA)は、本物の社会的相互作用のコンテキストを提供するためのシミュレーションエージェントを導入する。
近年のテキスト・トゥ・ビデオ技術のようなマルチモーダルAIの進歩により、これらのエージェントはAI生成文字に拡張される。
本研究では,協調科学研究の文脈を反映したSBAにおいて,教師とチームメイトの役割を担っているAIキャラクタを学習者がどう感じているかを検討する。
論文 参考訳(メタデータ) (2025-06-06T15:29:11Z) - Cognitio Emergens: Agency, Dimensions, and Dynamics in Human-AI Knowledge Co-Creation [0.5076419064097734]
我々は,ヒトとAIのエピステミックパートナーシップの共進化性を捉える枠組みであるCognitio Emergens (CE)を紹介した。
人間とAIのコラボレーションを根本的に共進化的に再認識することで、CEは、人間もAIも独立して達成できない変革的なブレークスルーを可能にしながら、てんかんの完全性を維持するパートナーシップを育むための概念的なツールを提供する。
論文 参考訳(メタデータ) (2025-05-06T01:49:44Z) - Unraveling Human-AI Teaming: A Review and Outlook [2.3396455015352258]
人工知能(AI)は前例のないペースで進歩しており、意思決定と生産性を高める可能性がある。
しかし、人間とAIの協調的な意思決定プロセスはまだ未開発であり、しばしばその変革の可能性に欠ける。
本稿では,AIエージェントの受動的ツールから,複雑な環境下での学習,適応,自律的な運用能力を強調した,人間-AIチームの積極的な協力者への進化について考察する。
論文 参考訳(メタデータ) (2025-04-08T07:37:25Z) - Aligning Generalisation Between Humans and Machines [74.120848518198]
AI技術は、科学的発見と意思決定において人間を支援することができるが、民主主義と個人を妨害することもある。
AIの責任ある使用と人間-AIチームへの参加は、AIアライメントの必要性をますます示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - How Performance Pressure Influences AI-Assisted Decision Making [52.997197698288936]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - AI's Social Forcefield: Reshaping Distributed Cognition in Human-AI Teams [6.386909552513031]
AIは、コラボレーションの社会的および認知的構造を積極的に再認識していることを示す。
AI参加はチームの分散認知アーキテクチャを再編成することを示す。
私たちは、チーム内のAIを社会的に影響力のあるアクターとして再考している。
論文 参考訳(メタデータ) (2024-07-03T13:46:00Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。