論文の概要: The Psychology of Learning from Machines: Anthropomorphic AI and the Paradox of Automation in Education
- arxiv url: http://arxiv.org/abs/2601.06172v1
- Date: Wed, 07 Jan 2026 08:28:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.640948
- Title: The Psychology of Learning from Machines: Anthropomorphic AI and the Paradox of Automation in Education
- Title(参考訳): 機械から学ぶ心理学:人類型AIと教育における自動化のパラドックス
- Authors: Junaid Qadir, Muhammad Mumtaz,
- Abstract要約: この研究は、4つの研究伝統を合成し、学習者が人間型AI教師と心理的にどう関係するかを理解するための包括的な枠組みを確立する。
我々は、ジェネレーティブAIの会話流布によって強化された3つの永続的課題を特定する。
われわれはこの理論合成を、AIによる哲学的議論と人間によるエンジニアリングチュートリアルにまたがって、104,984件のYouTubeコメントの比較分析を通じて基礎づけている。
- 参考スコア(独自算出の注目度): 1.8217623940980625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As AI tutors enter classrooms at unprecedented speed, their deployment increasingly outpaces our grasp of the psychological and social consequences of such technology. Yet decades of research in automation psychology, human factors, and human-computer interaction provide crucial insights that remain underutilized in educational AI design. This work synthesizes four research traditions -- automation psychology, human factors engineering, HCI, and philosophy of technology -- to establish a comprehensive framework for understanding how learners psychologically relate to anthropomorphic AI tutors. We identify three persistent challenges intensified by Generative AI's conversational fluency. First, learners exhibit dual trust calibration failures -- automation bias (uncritical acceptance) and algorithm aversion (excessive rejection after errors) -- with an expertise paradox where novices overrely while experts underrely. Second, while anthropomorphic design enhances engagement, it can distract from learning and foster harmful emotional attachment. Third, automation ironies persist: systems meant to aid cognition introduce designer errors, degrade skills through disuse, and create monitoring burdens humans perform poorly. We ground this theoretical synthesis through comparative analysis of over 104,984 YouTube comments across AI-generated philosophical debates and human-created engineering tutorials, revealing domain-dependent trust patterns and strong anthropomorphic projection despite minimal cues. For engineering education, our synthesis mandates differentiated approaches: AI tutoring for technical foundations where automation bias is manageable through proper scaffolding, but human facilitation for design, ethics, and professional judgment where tacit knowledge transmission proves irreplaceable.
- Abstract(参考訳): AI教師が前例のないスピードで教室に入ると、その展開は、そのような技術の心理的および社会的影響に対する私たちの理解をますます上回っている。
しかし、自動化心理学、ヒューマンファクター、人間とコンピュータの相互作用に関する何十年もの研究は、教育AI設計において未利用のままである重要な洞察を提供する。
この研究は、自動化心理学、ヒューマンファクター工学、HCI、技術哲学の4つの研究伝統を合成し、学習者が人間型AI教師と心理的にどのように関連しているかを理解するための包括的な枠組みを確立する。
我々は、ジェネレーティブAIの会話流布によって強化された3つの永続的課題を特定する。
まず、学習者は、自動化バイアス(非クリティカルな受け入れ)とアルゴリズム回避(エラー後の過剰な拒絶)という2つの信頼キャリブレーション障害を、専門家が過度に過度に経験する専門パラドックスで示します。
第二に、人為的デザインはエンゲージメントを高めるが、学習を妨げ、有害な感情的な愛着を育む。
第3に、認識を助けるためのシステムは、デザイナーのエラーを導入し、使い捨てによってスキルを劣化させ、人間のパフォーマンスの悪さをモニタリングする。
この理論合成は、AIが生成した哲学的議論や人為的なエンジニアリングチュートリアルにまたがる104,984件のYouTubeコメントの比較分析を通じて、最小限の手がかりにもかかわらず、ドメインに依存した信頼パターンと強力な人為的予測を明らかにすることによって、基礎を成している。
自動化バイアスが適切なスキャフォールディングによって管理できる技術基盤のためのAIチューターは、設計、倫理、専門的判断のための人間のファシリテーションは、暗黙の知識の伝達が不可能であることを証明します。
関連論文リスト
- Psychological Factors Influencing University Students Trust in AI-Based Learning Assistants [0.0]
本稿では,大学生がAIベースの学習アシスタントをいかに信頼するかを検討するために,心理学的視点を採用する。
本研究では,信頼の心理的予測を,認知的評価,感情的反応,社会的関係要因,文脈的モデレーターの4つのグループにまとめる概念的枠組みを提案する。
論文は、AIへの信頼は個人差と学習環境によって形成された心理的プロセスである、と強調している。
論文 参考訳(メタデータ) (2025-12-19T09:44:43Z) - Bridging Minds and Machines: Toward an Integration of AI and Cognitive Science [48.38628297686686]
認知科学は人工知能(AI)、哲学、心理学、神経科学、言語学、文化などの分野を深く形成している。
AIの多くのブレークスルーは、そのルーツを認知理論にさかのぼる一方で、AI自体が認知研究を進めるのに欠かせないツールになっている。
我々は、認知科学におけるAIの未来は、性能の向上だけでなく、人間の心の理解を深めるシステムの構築にも関係していると主張している。
論文 参考訳(メタデータ) (2025-08-28T11:26:17Z) - The AI Interface: Designing for the Ideal Machine-Human Experience (Editorial) [1.8074330674710588]
本論では,AI体験デザインの心理学を探求する特集を紹介する。
このコレクションの論文は、人間とAIの相互作用における信頼、透明性、感情的な感受性の複雑さを強調している。
8つの多様な研究から得られた知見により、この論説は、効率と共感のバランスをとるためのAIインターフェースの必要性を強調している。
論文 参考訳(メタデータ) (2024-11-29T15:17:32Z) - Aligning Generalisation Between Humans and Machines [74.120848518198]
AI技術は、科学的発見と意思決定において人間を支援することができるが、民主主義と個人を妨害することもある。
AIの責任ある使用と人間-AIチームへの参加は、AIアライメントの必要性をますます示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
我々は人間の知恵について知られているものを調べ、そのAIのビジョンをスケッチする。
AIシステムは特にメタ認知に苦しむ。
スマートAIのベンチマーク、トレーニング、実装について論じる。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - The Interplay of Learning, Analytics, and Artificial Intelligence in Education: A Vision for Hybrid Intelligence [0.45207442500313766]
私は、AIのツールとしての狭義の概念化に挑戦し、AIの代替概念化の重要性を主張します。
人工知能と人工情報処理の違いを強調し、AIが人間の学習を理解するための道具としても役立つことを実証する。
本稿では、人間の認知の外部化、人間のメンタルモデルに影響を与えるAIモデルの内部化、密結合された人間とAIハイブリッドインテリジェンスシステムによる人間の認知の拡張という、AIのユニークな概念化について述べる。
論文 参考訳(メタデータ) (2024-03-24T10:07:46Z) - World Models and Predictive Coding for Cognitive and Developmental
Robotics: Frontiers and Challenges [51.92834011423463]
我々は世界モデルと予測符号化の2つの概念に焦点を当てる。
神経科学において、予測符号化は、脳がその入力を継続的に予測し、その環境における自身のダイナミクスと制御行動のモデル化に適応するように提案する。
論文 参考訳(メタデータ) (2023-01-14T06:38:14Z) - BIASeD: Bringing Irrationality into Automated System Design [12.754146668390828]
我々は、人間と機械のコラボレーションの未来は、人間の認知バイアスをモデル化し、理解し、おそらく複製するAIシステムの開発を必要とすると主張している。
我々は、AIシステムの観点から既存の認知バイアスを分類し、3つの幅広い関心領域を特定し、私たちのバイアスをよりよく理解するAIシステムの設計のための研究の方向性を概説する。
論文 参考訳(メタデータ) (2022-10-01T02:52:38Z) - Learning to Complement Humans [67.38348247794949]
オープンワールドにおけるAIに対するビジョンの高まりは、知覚、診断、推論タスクのために人間を補完できるシステムの開発に焦点を当てている。
我々は,人間-機械チームの複合的なパフォーマンスを最適化するために,エンド・ツー・エンドの学習戦略をどのように活用できるかを実証する。
論文 参考訳(メタデータ) (2020-05-01T20:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。