論文の概要: Draw2Learn: A Human-AI Collaborative Tool for Drawing-Based Science Learning
- arxiv url: http://arxiv.org/abs/2602.01494v1
- Date: Mon, 02 Feb 2026 00:06:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.817776
- Title: Draw2Learn: A Human-AI Collaborative Tool for Drawing-Based Science Learning
- Title(参考訳): Draw2Learn: 描画に基づく科学学習のための人間とAIのコラボレーションツール
- Authors: Yuqi Hang,
- Abstract要約: 描画はメンタルモデルを外部化することで学習をサポートするが、スケールでのタイムリーなフィードバックの提供は依然として難しい。
我々はDraw2Learnについて紹介する。Draw2Learnは、ドローベース学習においてAIが支援的なチームメイトとして振舞う方法を探求するシステムである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Drawing supports learning by externalizing mental models, but providing timely feedback at scale remains challenging. We present Draw2Learn, a system that explores how AI can act as a supportive teammate during drawing-based learning. The design translates learning principles into concrete interaction patterns: AI generates structured drawing quests, provides optional visual scaffolds, monitors progress, and delivers multidimensional feedback. We collected formative user feedback during system development and open-ended comments. Feedback showed positive ratings for usability, usefulness, and user experience, with themes highlighting AI scaffolding value and learner autonomy. This work contributes a design framework for teammate-oriented AI in generative learning and identifies key considerations for future research.
- Abstract(参考訳): 描画はメンタルモデルを外部化することで学習をサポートするが、スケールでのタイムリーなフィードバックの提供は依然として難しい。
我々はDraw2Learnについて紹介する。Draw2Learnは、ドローベース学習においてAIが支援的なチームメイトとして振舞う方法を探求するシステムである。
AIは構造化された描画クエストを生成し、任意の視覚的な足場を提供し、進捗を監視し、多次元フィードバックを提供する。
システム開発とオープンエンドコメントの間に、フォーマティブなユーザフィードバックを収集しました。
フィードバックはユーザビリティ、有用性、ユーザエクスペリエンスの肯定的な評価を示し、AIの足場価値と学習者の自律性を強調したテーマだ。
この研究は、生成学習におけるチームメイト指向AIの設計フレームワークに貢献し、将来の研究における重要な考慮事項を特定する。
関連論文リスト
- From Pilots to Practices: A Scoping Review of GenAI-Enabled Personalization in Computer Science Education [0.6372261626436676]
生成AIは、大規模にパーソナライズされたコンピュータサイエンス教育を可能にするが、そのようなパーソナライゼーションが学習を阻害するかどうかについては疑問が残る。
このスコーピングレビューは、259レコードから純粋にサンプリングされた32の研究を合成し、マップのパーソナライズ機構と効果信号を生成する。
インテリジェントなチューター、パーソナライズされた素材、フォーマティブなフィードバック、AI強化されたアセスメント、コードレビューの5つのアプリケーションドメインを特定し、デザインの選択が学習結果をどのように形成するかを分析します。
論文 参考訳(メタデータ) (2025-12-23T19:20:34Z) - "I Like That You Have to Poke Around": Instructors on How Experiential Approaches to AI Literacy Spark Inquiry and Critical Thinking [0.5872014229110213]
本稿では,実世界のシナリオに根ざしたインタラクティブな非コードプロジェクトを通じて,コアAI概念を教えるモジュール型WebベースのカリキュラムであるAI Userの研究成果を紹介する。
コミュニティカレッジのインストラクター15人が、構造化されたフォーカスグループに参加し、学習者としてプロジェクトを完了し、個々のリフレクションやグループディスカッションを通じてフィードバックを提供した。
調査課題に対するインストラクターの評価、ロールベースシミュレーション、実世界の妥当性、さらには多様な学習者に対する認知的負荷、指導、適応性に関する設計上のトレードオフを浮き彫りにしている。
論文 参考訳(メタデータ) (2025-11-07T17:05:58Z) - fCrit: A Visual Explanation System for Furniture Design Creative Support [1.3581810800092389]
fCritは、家具の設計を説明責任に焦点をあてて批判するために設計された対話型AIシステムである。
芸術における説明責任は、AIの推論を透過的にするだけでなく、ユーザーが自分のデザインについて考え、話す方法にも適応させるべきだ、と私たちは主張する。
論文 参考訳(メタデータ) (2025-08-17T16:03:44Z) - Human-in-the-Loop Systems for Adaptive Learning Using Generative AI [0.6780998887296331]
学生主導のフィードバックループは、AIが生成した応答を修正して、学生の保持とエンゲージメントを改善する。
STEM学生による研究から得られた予備的な知見は、従来のAIツールと比較して学習結果と信頼性が向上したことを示している。
論文 参考訳(メタデータ) (2025-08-14T20:44:34Z) - Supporting Students' Reading and Cognition with AI [12.029238454394445]
私たちは124セッションのテキストをAIツールで分析し、ユーザの読書プロセスと認知的エンゲージメントを理解しました。
我々は、低レベルの認知タスクのための構造化足場を含む、将来のAI読解支援システムの設計意味について提案する。
私たちは、学生やインストラクターがAIで読書体験をカスタマイズできる適応的で人間的なループ機能を提案しています。
論文 参考訳(メタデータ) (2025-04-07T17:51:27Z) - Empowering Private Tutoring by Chaining Large Language Models [87.76985829144834]
本研究は,最先端の大規模言語モデル(LLM)を活用した,本格的な知的チューリングシステムの開発を探求する。
このシステムは、相互に接続された3つのコアプロセス(相互作用、反射、反応)に分けられる。
各プロセスは LLM ベースのツールと動的に更新されたメモリモジュールによって実装される。
論文 参考訳(メタデータ) (2023-09-15T02:42:03Z) - Learning Transferable Pedestrian Representation from Multimodal
Information Supervision [174.5150760804929]
VAL-PATは、移動可能な表現を学習し、様々な歩行者分析タスクをマルチモーダル情報で強化する新しいフレームワークである。
まず、LUPerson-TAデータセットで事前トレーニングを行い、各画像にはテキストと属性アノテーションが含まれている。
次に、学習した表現を、人物のreID、人物属性認識、テキストベースの人物検索など、さまざまな下流タスクに転送する。
論文 参考訳(メタデータ) (2023-04-12T01:20:58Z) - Robustar: Interactive Toolbox Supporting Precise Data Annotation for
Robust Vision Learning [53.900911121695536]
ソフトウェアRobustarの初期リリースを紹介します。
それは、データ駆動の観点から視覚分類機械学習モデルの堅牢性を改善することを目的としている。
論文 参考訳(メタデータ) (2022-07-18T21:12:28Z) - Feature Forgetting in Continual Representation Learning [48.89340526235304]
表現は、平凡な連続学習においても「破滅的な忘れ」に苦しめられることはないが、その特徴についてはほとんど知られていない。
連続的な学習における表現を評価するためのプロトコルを考案し、それを用いて連続的な表現学習の基本的傾向の概要を示す。
特徴忘れ問題を研究するために、ニューラルネットワークにおける特徴忘れの頻度を識別し視覚化する合成データセットを作成する。
論文 参考訳(メタデータ) (2022-05-26T13:38:56Z) - A Competence-aware Curriculum for Visual Concepts Learning via Question
Answering [95.35905804211698]
本稿では,視覚概念学習のための質問応答型カリキュラムを提案する。
視覚概念を学習するためのニューラルシンボリックな概念学習者と学習プロセスを導くための多次元項目応答理論(mIRT)モデルを設計する。
CLEVRの実験結果から,コンピテンスを意識したカリキュラムにより,提案手法は最先端のパフォーマンスを実現することが示された。
論文 参考訳(メタデータ) (2020-07-03T05:08:09Z) - Self-supervised Learning from a Multi-view Perspective [121.63655399591681]
自己教師型表現はタスク関連情報を抽出し,タスク関連情報を破棄することができることを示す。
我々の理論的枠組みは、自己教師型学習目標設計のより広い空間への道を開くものである。
論文 参考訳(メタデータ) (2020-06-10T00:21:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。