論文の概要: "AI just keeps guessing": Using ARC Puzzles to Help Children Identify Reasoning Errors in Generative AI
- arxiv url: http://arxiv.org/abs/2505.16034v1
- Date: Wed, 21 May 2025 21:27:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:47.920083
- Title: "AI just keeps guessing": Using ARC Puzzles to Help Children Identify Reasoning Errors in Generative AI
- Title(参考訳): AIは推測し続ける」:ARCパズルを使って子どもたちが生成型AIの推論エラーを識別する
- Authors: Aayushi Dangol, Trushaa Ramanan, Runhua Zhao, Julie A. Kientz, Robert Wolfe, Jason Yip,
- Abstract要約: 生成人工知能(genAI)の日常生活への統合は、これらの技術に批判的に取り組むために必要な能力に関する疑問を提起する。
genAIの視覚的エラーとは異なり、テキストの誤りは検出し、特定のドメイン知識を必要とすることが多い。
我々は,抽象推論コーパス(ARC)に基づく対話型システムであるAI Puzzlersを開発した。
- 参考スコア(独自算出の注目度): 4.80495766531247
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The integration of generative Artificial Intelligence (genAI) into everyday life raises questions about the competencies required to critically engage with these technologies. Unlike visual errors in genAI, textual mistakes are often harder to detect and require specific domain knowledge. Furthermore, AI's authoritative tone and structured responses can create an illusion of correctness, leading to overtrust, especially among children. To address this, we developed AI Puzzlers, an interactive system based on the Abstraction and Reasoning Corpus (ARC), to help children identify and analyze errors in genAI. Drawing on Mayer & Moreno's Cognitive Theory of Multimedia Learning, AI Puzzlers uses visual and verbal elements to reduce cognitive overload and support error detection. Based on two participatory design sessions with 21 children (ages 6 - 11), our findings provide both design insights and an empirical understanding of how children identify errors in genAI reasoning, develop strategies for navigating these errors, and evaluate AI outputs.
- Abstract(参考訳): 生成人工知能(genAI)の日常生活への統合は、これらの技術に批判的に取り組むために必要な能力に関する疑問を提起する。
genAIの視覚的エラーとは異なり、テキストの誤りは検出し、特定のドメイン知識を必要とすることが多い。
さらに、AIの権威的なトーンと構造化された反応は、正しさの錯覚を生じさせ、特に子供の間で過信につながる。
そこで我々は,抽象推論コーパス(ARC)に基づく対話型システムであるAI Puzzlersを開発した。
Mayer & MorenoのCognitive Theory of Multimedia Learningに基づいて、AI Puzzlersは視覚的および言語的要素を使用して認知過負荷を低減し、エラー検出をサポートする。
21人の子ども(年齢6~11歳)による参加型デザインセッションを2回実施し,GenAI推論におけるエラーの識別方法と,これらのエラーをナビゲートするための戦略の開発,AI出力の評価を行った。
関連論文リスト
- Children's Mental Models of AI Reasoning: Implications for AI Literacy Education [8.996593596034506]
AI推論の3つのモデルを特定します。
以上の結果から, 幼児(3~5歳)はAIの推論を, 高齢者(6~8歳)はAIをパターン認識器として認識していることが明らかとなった。
子どもたちのAI推論に対する理解に表れた3つの緊張点を強調し、AIカリキュラムの足場化や説明可能なAIツールの設計に影響を及ぼす。
論文 参考訳(メタデータ) (2025-05-21T21:20:12Z) - The Imitation Game for Educational AI [23.71250100390303]
本稿では,2相チューリング様試験に基づく新しい評価フレームワークを提案する。
フェーズ1では、学生は質問に対するオープンな回答を提供し、自然な誤解を明らかにします。
フェーズ2では、AIと人間の専門家の両方が、各学生の特定のミスを条件に、新しい関連する質問に気を散らす。
論文 参考訳(メタデータ) (2025-02-21T01:14:55Z) - AI in Education: Rationale, Principles, and Instructional Implications [0.0]
ChatGPTのような生成AIは、人間のようなコンテンツを作り、その教育的役割について疑問を呈する。
この研究は、AIが真の認知的努力を補うのではなく、確実に補完する意図的な戦略を強調している。
論文 参考訳(メタデータ) (2024-12-02T14:08:07Z) - Do great minds think alike? Investigating Human-AI Complementarity in Question Answering with CAIMIRA [43.116608441891096]
人間は知識に基づく帰納的、概念的推論においてAIシステムより優れています。
GPT-4やLLaMAのような最先端のLLMは、ターゲット情報検索において優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-09T03:53:26Z) - Evaluating Large Vision-and-Language Models on Children's Mathematical Olympiads [74.54183505245553]
ジョイントビジョンとテキスト推論のためのAI能力の体系的分析は、現在の科学文献に欠けている。
我々は,子どものオリンピアードからのビジュオ言語問題を用いて,その数学的およびアルゴリズム的推論能力に基づいて,最先端のLVLMを評価した。
以上の結果から,近代のLVLMは,高学年の問題解決において,より強力な推論能力を示す一方で,幼児向けの問題に正しく答える基盤が欠如していることが示唆された。
論文 参考訳(メタデータ) (2024-06-22T05:04:39Z) - OlympicArena: Benchmarking Multi-discipline Cognitive Reasoning for Superintelligent AI [73.75520820608232]
我々は,11,163のバイリンガル問題を含む,テキストのみとインターリーブされたテキストイメージのモダリティを紹介する。
これらの課題には、7つのフィールドと62の国際オリンピック大会にわたる幅広い規律が含まれており、データ漏洩について厳格に調査されている。
我々の評価によると、GPT-4oのような先進モデルでさえ、複雑な推論とマルチモーダル統合における現在のAI制限を反映して、全体的な精度は39.97%しか達成していない。
論文 参考訳(メタデータ) (2024-06-18T16:20:53Z) - Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。