論文の概要: Proactive Agentic Whiteboards: Enhancing Diagrammatic Learning
- arxiv url: http://arxiv.org/abs/2512.01234v1
- Date: Mon, 01 Dec 2025 03:20:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.666718
- Title: Proactive Agentic Whiteboards: Enhancing Diagrammatic Learning
- Title(参考訳): Proactive Agentic Whiteboards: Enhancing Diagrammatic Learning
- Authors: Suveen Ellawala, Sashenka Gamage, Dinithi Dissanayake,
- Abstract要約: 我々はDrawDashを紹介した。DrawDashはAIを利用したホワイトボードアシスタントで、マルチモーダル理解を通じて教育図を積極的に完成し、洗練する。
我々はDrawDashを,コンピュータ科学やWeb開発から生物学まで,4つの多様な教育シナリオにまたがって紹介する。
本研究は, 教師の認知負荷軽減と, リアルタイム, 音声駆動型視覚支援による図に基づく教育改善を早期に検討し, 形式的教室評価のための現在の限界と方向性について考察した。
- 参考スコア(独自算出の注目度): 1.338174941551702
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Educators frequently rely on diagrams to explain complex concepts during lectures, yet creating clear and complete visual representations in real time while simultaneously speaking can be cognitively demanding. Incomplete or unclear diagrams may hinder student comprehension, as learners must mentally reconstruct missing information while following the verbal explanation. Inspired by advances in code completion tools, we introduce DrawDash, an AI-powered whiteboard assistant that proactively completes and refines educational diagrams through multimodal understanding. DrawDash adopts a TAB-completion interaction model: it listens to spoken explanations, detects intent, and dynamically suggests refinements that can be accepted with a single keystroke. We demonstrate DrawDash across four diverse teaching scenarios, spanning topics from computer science and web development to biology. This work represents an early exploration into reducing instructors' cognitive load and improving diagram-based pedagogy through real-time, speech-driven visual assistance, and concludes with a discussion of current limitations and directions for formal classroom evaluation.
- Abstract(参考訳): 教育者は講義中に複雑な概念を説明するためにしばしば図に頼っているが、明瞭で完全な視覚表現をリアルタイムで生成し、同時に話すことは認知的に要求されることがある。
不完全な図形や不明瞭な図形は、学生の理解を妨げる可能性がある。
コード補完ツールの進歩に触発されて、私たちはDrawDashを紹介した。DrawDashはAIを利用したホワイトボードアシスタントで、マルチモーダル理解を通じて教育図を積極的に完成し、洗練する。
DrawDashはTAB-Completionインタラクションモデルを採用しており、音声の説明を聴き、意図を検出し、単一のキーストロークで受け入れられる改善を動的に提案する。
我々はDrawDashを,コンピュータ科学やWeb開発から生物学まで,4つの多様な教育シナリオにまたがって紹介する。
本研究は, 教師の認知負荷軽減と, リアルタイム, 音声駆動型視覚支援による図に基づく教育改善を早期に検討し, 形式的教室評価のための現在の限界と方向性について考察した。
関連論文リスト
- Chimera: Diagnosing Shortcut Learning in Visual-Language Understanding [44.53837800796001]
ウィキペディアから得られた7,500の高品質な図からなるテストスイートであるChimeraを紹介する。
各ダイアグラムは、その象徴的な内容が意味的な三重項で表され、多段階の質問とともに注釈付けされる。
視覚的質問応答における3種類のショートカットの存在を測定するために,チメラを用いている。
論文 参考訳(メタデータ) (2025-09-26T14:55:04Z) - Explain with Visual Keypoints Like a Real Mentor! A Benchmark for Multimodal Solution Explanation [19.4261670152456]
モデルが補助線,点,角などの視覚的キーポイントを識別できるかどうかを評価し,これらのキー要素を組み込んだ説明を生成するためのマルチモーダルソリューション説明タスクを提案する。
我々の経験的結果は、最近の大規模オープンソースおよびクローズドソースモデル、ほとんどの一般オープンソースモデル、数学特殊主義モデルを除いて、マルチモーダルソリューションの説明タスクに苦戦していることを示している。
このことは、現在のLLMの教育的文脈における視覚的基盤による推論と説明能力において、大きなギャップを浮き彫りにしている。
論文 参考訳(メタデータ) (2025-04-04T06:03:13Z) - Visual and Semantic Prompt Collaboration for Generalized Zero-Shot Learning [58.73625654718187]
一般化されたゼロショット学習は、異なるクラス間で共有される意味情報の助けを借りて、目に見えないクラスと見えないクラスの両方を認識することを目的としている。
既存のアプローチでは、視覚的バックボーンをルッククラスのデータで微調整し、セマンティックな視覚的特徴を得る。
本稿では,効率的な特徴適応のためのプロンプトチューニング技術を活用した,視覚的・意味的プロンプト協調フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-29T10:17:57Z) - Interactive Sketchpad: A Multimodal Tutoring System for Collaborative, Visual Problem-Solving [25.22658210339668]
本稿では,対話型ビジュアライゼーションと対話型ビジュアライゼーションを組み合わせた学習システムであるInteractive Sketchpadを紹介する。
幾何学、計算、および対話型スケッチパッドなどの数学問題に関するユーザ研究は、タスク理解、問題解決精度、エンゲージメントレベルの改善につながることを示した。
論文 参考訳(メタデータ) (2025-02-12T00:59:25Z) - Attend and Enrich: Enhanced Visual Prompt for Zero-Shot Learning [114.59476118365266]
視覚表現豊か化のための意味強調プロンプトを抽出するための視覚的プロンプトに意味情報を付与するAENetを提案する。
AENetは、2つの重要なステップから構成される: 1) 視覚的・属性的モダリティの概念調和トークンを探索し、一貫した視覚的セマンティックな概念を表す様相共有トークンに基づく。
論文 参考訳(メタデータ) (2024-06-05T07:59:48Z) - XCoOp: Explainable Prompt Learning for Computer-Aided Diagnosis via Concept-guided Context Optimization [4.634780391920529]
本稿では,画像,学習可能なプロンプト,臨床概念に基づくプロンプトのセマンティクスを整合させることにより,医療知識を活用する新しい説明可能なプロンプト学習フレームワークを提案する。
我々のフレームワークは、大きな言語モデルから知識を引き出すことによって、価値ある概念アノテーションの欠如に対処する。
提案手法は,XAIにおける基礎モデルの有効性に光を当て,優れた診断性能,柔軟性,解釈可能性を実現する。
論文 参考訳(メタデータ) (2024-03-14T14:02:01Z) - A Message Passing Perspective on Learning Dynamics of Contrastive
Learning [60.217972614379065]
特徴空間に対照的な目的を同等に配置すると、その学習力学は解釈可能な形式を持つことを示す。
この視点はまた、対照的な学習とメッセージパッシンググラフニューラルネットワーク(MP-GNN)の間の興味深い関係を確立する。
論文 参考訳(メタデータ) (2023-03-08T08:27:31Z) - Multimodal Lecture Presentations Dataset: Understanding Multimodality in
Educational Slides [57.86931911522967]
学習内容のマルチモーダル理解における機械学習モデルの能力を検証する。
このデータセットには,180時間以上のビデオと9000時間以上のスライドが,各科目から10人の講師が参加している。
マルチモーダル・トランスフォーマーであるPolyViLTを導入する。
論文 参考訳(メタデータ) (2022-08-17T05:30:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。