論文の概要: Disrupting Cognitive Passivity: Rethinking AI-Assisted Data Literacy through Cognitive Alignment
- arxiv url: http://arxiv.org/abs/2604.02783v1
- Date: Fri, 03 Apr 2026 06:47:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-06 17:20:24.357815
- Title: Disrupting Cognitive Passivity: Rethinking AI-Assisted Data Literacy through Cognitive Alignment
- Title(参考訳): 認知的受動性の破壊 - 認知的アライメントによるAI支援データリテラシーの再考
- Authors: Yongsu Ahn, Nam Wook Kim, Benjamin Bach,
- Abstract要約: 我々は、認知的相違を乱すには、認知的アライメントを通じてよりダイナミックで適応的な戦略が必要であると論じる。
このフレームワークでは、AIのインタラクションモード(伝達的または熟考的)とユーザの認知的要求(受容的または熟考的)のマッピングを提供する。
- 参考スコア(独自算出の注目度): 17.265229093607676
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI chatbots are increasingly stepping into roles as collaborators or teachers in analyzing, visualizing, and reasoning through data and domain problem. Yet, AI's default assistant mode with its comprehensive and one-off responses may undermine opportunities for practitioners to develop literacy through their own thinking, inducing cognitive passivity. Drawing on evidence from empirical studies and theories, we argue that disrupting cognitive passivity necessitates a nuanced approach: rather than simply making AI promote deliberative thinking, there is a need for more dynamic and adaptive strategy through cognitive alignment -- a framework that characterizes effective human-AI interaction as a function of alignment between users' cognitive demand and AI's interaction mode. In the framework, we provide the mapping between AI's interaction mode (transmissive or deliberative) and users' cognitive demand (receptive or deliberative), otherwise leading to either cognitive passivity or friction. We further discuss implications and offer open questions for future research on data literacy.
- Abstract(参考訳): AIチャットボットは、データやドメインの問題を分析し、視覚化し、推論する上で、協力者や教師としての役割をますます増している。
しかし、AIのデフォルトのアシスタントモードは、包括的でワンオフの応答によって、実践者が自身の思考を通じてリテラシーを発達させる機会を損なう可能性がある。
AIを単に熟考的思考を促進するのではなく、認知的アライメントを通じてよりダイナミックで適応的な戦略を必要とする。これは、ユーザの認知的要求とAIのインタラクションモードの整合性の関数として、効果的な人間とAIの相互作用を特徴付けるフレームワークである。
このフレームワークでは、AIのインタラクションモード(伝達性または熟考性)とユーザの認知的要求(受容性または熟考性)のマッピングを提供し、そうでなければ認知的通過性または摩擦につながる。
また,データリテラシーに関する今後の研究について考察し,オープンな質問を行う。
関連論文リスト
- Who Is Doing the Thinking? AI as a Dynamic Cognitive Partner: A Learner-Informed Framework [0.0]
本研究では,AIを動的認知パートナーとして位置づけるフレームワークを提案する。
学習者がAIを認識と協調するものとして記述した,9つの相互関連次元を同定した。
学生は、理解を拡大する生産的支援と、認知的努力に取って代わる非生産的依存とを区別し、AIがいつ使われるべきか、使用すべきでないかを状況的認識を示す。
論文 参考訳(メタデータ) (2026-02-17T15:07:06Z) - AI as Teammate or Tool? A Review of Human-AI Interaction in Decision Support [0.514825619161626]
現在のAIシステムは、説明可能性中心の設計への過度な依存のため、主に受動的である。
AIをアクティブなチームメイトに移行するには、適応的でコンテキスト対応のインタラクションが必要です。
論文 参考訳(メタデータ) (2026-01-26T19:18:50Z) - Bridging Minds and Machines: Toward an Integration of AI and Cognitive Science [48.38628297686686]
認知科学は人工知能(AI)、哲学、心理学、神経科学、言語学、文化などの分野を深く形成している。
AIの多くのブレークスルーは、そのルーツを認知理論にさかのぼる一方で、AI自体が認知研究を進めるのに欠かせないツールになっている。
我々は、認知科学におけるAIの未来は、性能の向上だけでなく、人間の心の理解を深めるシステムの構築にも関係していると主張している。
論文 参考訳(メタデータ) (2025-08-28T11:26:17Z) - Exploring Societal Concerns and Perceptions of AI: A Thematic Analysis through the Lens of Problem-Seeking [0.0]
本研究では,AIとは対照的に人間の知能の特徴を明らかにするために,問題解決から問題解決を区別する新しい概念的枠組みを提案する。
このフレームワークは、AIは効率と最適化において優れているが、接地と人間の認識に固有のエンボディメントの柔軟性から派生したオリエンテーションは欠如している、と強調している。
論文 参考訳(メタデータ) (2025-05-29T18:24:34Z) - Navigating the State of Cognitive Flow: Context-Aware AI Interventions for Effective Reasoning Support [6.758533259752144]
フロー理論は、個人が深い焦点と本質的な動機を経験する最適な認知状態を記述する。
AIが強化された推論では、認知の流れを乱す介入は意思決定を強化するよりも妨げられる。
本稿では、タイプ、タイミング、スケールに基づいて介入を適応する文脈認識型認知強化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-22T16:35:39Z) - Aligning Generalisation Between Humans and Machines [74.120848518198]
AI技術は、科学的発見と意思決定において人間を支援することができるが、民主主義と個人を妨害することもある。
AIの責任ある使用と人間-AIチームへの参加は、AIアライメントの必要性をますます示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
我々は人間の知恵について知られているものを調べ、そのAIのビジョンをスケッチする。
AIシステムは特にメタ認知に苦しむ。
スマートAIのベンチマーク、トレーニング、実装について論じる。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Towards Human-AI Deliberation: Design and Evaluation of LLM-Empowered Deliberative AI for AI-Assisted Decision-Making [47.33241893184721]
AIによる意思決定において、人間はしばしばAIの提案を受動的にレビューし、それを受け入れるか拒否するかを決定する。
意思決定における人間-AIの意見の対立に関する議論と人間のリフレクションを促進する新しい枠組みであるHuman-AI Deliberationを提案する。
人間の熟考の理論に基づいて、この枠組みは人間とAIを次元レベルの意見の引用、熟考的議論、意思決定の更新に携わる。
論文 参考訳(メタデータ) (2024-03-25T14:34:06Z) - Human-AI collaboration is not very collaborative yet: A taxonomy of interaction patterns in AI-assisted decision making from a systematic review [6.013543974938446]
意思決定支援システムにおける人工知能の活用は、技術的進歩に不相応に焦点を合わせてきた。
人間中心の視点は、既存のプロセスとのシームレスな統合のためにAIソリューションを設計することで、この懸念を緩和しようとする。
論文 参考訳(メタデータ) (2023-10-30T17:46:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。