論文の概要: Children's Mental Models of AI Reasoning: Implications for AI Literacy Education
- arxiv url: http://arxiv.org/abs/2505.16031v1
- Date: Wed, 21 May 2025 21:20:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:47.917865
- Title: Children's Mental Models of AI Reasoning: Implications for AI Literacy Education
- Title(参考訳): 子どものAI推論のメンタルモデル:AIリテラシー教育への応用
- Authors: Aayushi Dangol, Robert Wolfe, Runhua Zhao, JaeWon Kim, Trushaa Ramanan, Katie Davis, Julie A. Kientz,
- Abstract要約: AI推論の3つのモデルを特定します。
以上の結果から, 幼児(3~5歳)はAIの推論を, 高齢者(6~8歳)はAIをパターン認識器として認識していることが明らかとなった。
子どもたちのAI推論に対する理解に表れた3つの緊張点を強調し、AIカリキュラムの足場化や説明可能なAIツールの設計に影響を及ぼす。
- 参考スコア(独自算出の注目度): 8.996593596034506
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As artificial intelligence (AI) advances in reasoning capabilities, most recently with the emergence of Large Reasoning Models (LRMs), understanding how children conceptualize AI's reasoning processes becomes critical for fostering AI literacy. While one of the "Five Big Ideas" in AI education highlights reasoning algorithms as central to AI decision-making, less is known about children's mental models in this area. Through a two-phase approach, consisting of a co-design session with 8 children followed by a field study with 106 children (grades 3-8), we identified three models of AI reasoning: Deductive, Inductive, and Inherent. Our findings reveal that younger children (grades 3-5) often attribute AI's reasoning to inherent intelligence, while older children (grades 6-8) recognize AI as a pattern recognizer. We highlight three tensions that surfaced in children's understanding of AI reasoning and conclude with implications for scaffolding AI curricula and designing explainable AI tools.
- Abstract(参考訳): 人工知能(AI)が推論能力に進歩するにつれて、子どもたちがAIの推論プロセスをどのように概念化するかを理解することが、AIリテラシーを育む上で重要である。
AI教育における「5つの大きな思想」の1つは、推論アルゴリズムをAI意思決定の中心として強調しているが、この領域における子供の精神モデルについてはあまり知られていない。
8人の子供の共設計セッションと106人の子供のフィールドスタディ(グレード3-8)からなる2段階のアプローチにより,AI推論の3つのモデルが同定された。
以上の結果から, 幼児(3~5歳)はAIの推論を, 高齢者(6~8歳)はAIをパターン認識器と認識する傾向がみられた。
子どもたちのAI推論に対する理解に表れた3つの緊張点を強調し、AIカリキュラムの足場化や説明可能なAIツールの設計に影響を及ぼす。
関連論文リスト
- World Models in Artificial Intelligence: Sensing, Learning, and Reasoning Like a Child [10.183372891207966]
世界モデルは人工知能(AI)が成果を予測し、その環境を判断し、意思決定を導くのに役立つ。
我々は6つの重要な研究分野、物理情報学習、ニューロシンボリックラーニング、継続学習、因果推論、ヒューマン・イン・ザ・ループAI、そして責任あるAIを、AIの真理化を可能にする上で不可欠なものとして強調する。
論文 参考訳(メタデータ) (2025-03-19T12:50:40Z) - Aligning Generalisation Between Humans and Machines [74.120848518198]
近年のAIの進歩は、科学的発見と意思決定支援において人間を支援できる技術をもたらしたが、民主主義と個人を妨害する可能性がある。
AIの責任ある使用は、ますます人間とAIのチームの必要性を示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
我々は人間の知恵について知られているものを調べ、そのAIのビジョンをスケッチする。
AIシステムは特にメタ認知に苦しむ。
スマートAIのベンチマーク、トレーニング、実装について論じる。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Evaluating Large Vision-and-Language Models on Children's Mathematical Olympiads [74.54183505245553]
ジョイントビジョンとテキスト推論のためのAI能力の体系的分析は、現在の科学文献に欠けている。
我々は,子どものオリンピアードからのビジュオ言語問題を用いて,その数学的およびアルゴリズム的推論能力に基づいて,最先端のLVLMを評価した。
以上の結果から,近代のLVLMは,高学年の問題解決において,より強力な推論能力を示す一方で,幼児向けの問題に正しく答える基盤が欠如していることが示唆された。
論文 参考訳(メタデータ) (2024-06-22T05:04:39Z) - Finnish 5th and 6th graders' misconceptions about Artificial
Intelligence [0.0]
本研究では,フィンランドの5年生と6年生のAI概念を分析した。
3つの誤解カテゴリーが同定された。
その結果, 文脈固有の言語的特徴は, 学生のAI誤解に寄与することが示唆された。
論文 参考訳(メタデータ) (2023-11-28T09:49:11Z) - Bootstrapping Developmental AIs: From Simple Competences to Intelligent
Human-Compatible AIs [0.0]
主流のAIアプローチは、大きな言語モデル(LLM)による生成的および深層学習アプローチと、手動で構築されたシンボリックアプローチである。
このポジションペーパーでは、開発AIの実践を拡張して、レジリエンスでインテリジェントで、人間と互換性のあるAIを作り出すための、展望、ギャップ、課題を概説する。
論文 参考訳(メタデータ) (2023-08-08T21:14:21Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。