論文の概要: Drawing Your Programs: Exploring the Applications of Visual-Prompting with GenAI for Teaching and Assessment
- arxiv url: http://arxiv.org/abs/2602.10529v1
- Date: Wed, 11 Feb 2026 04:59:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.477695
- Title: Drawing Your Programs: Exploring the Applications of Visual-Prompting with GenAI for Teaching and Assessment
- Title(参考訳): プログラムの描画:GenAIによるビジュアルプロンピングの教育と評価への応用を探る
- Authors: David H. Smith, S. Moonwara A. Monisha, Annapurna Vadaparty, Leo Porter, Daniel Zingaro,
- Abstract要約: 我々は、このテキスト中心の焦点が、問題分解図などのGenAIモデルを促進する他の形態を見落としていると論じる。
我々は、現在のモデルが学生が構築した図からコードを生成する能力に非常に成功したことを実証する。
- 参考スコア(独自算出の注目度): 0.32622301272834514
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When designing a program, both novice programmers and seasoned developers alike often sketch out -- or, perhaps more famously, whiteboard -- their ideas. Yet despite the introduction of natively multimodal Generative AI models, work on Human-GenAI collaborative coding has remained overwhelmingly focused on textual prompts -- largely ignoring the visual and spatial representations that programmers naturally use to reason about and communicate their designs. In this proposal and position paper, we argue and provide tentative evidence that this text-centric focus overlooks other forms of prompting GenAI models, such as problem decomposition diagrams functioning as prompts for code generation in their own right enabling new types of programming activities and assessments. To support this position, we present findings from a large introductory Python programming course, where students constructed decomposition diagrams that were used to prompt GPT-4.1 for code generation. We demonstrate that current models are very successful in their ability to generate code from student-constructed diagrams. We conclude by exploring the implications of embracing multimodal prompting for computing education, particularly in the context of assessment.
- Abstract(参考訳): プログラムを設計する場合、初心者プログラマも経験豊富な開発者も同じように、そのアイデアをスケッチアウトすることが多い。
しかし、ネイティブにマルチモーダルなジェネレーティブAIモデルの導入にもかかわらず、Human-GenAIのコラボレーティブコーディングの研究は、テキストプロンプトに圧倒的に重点を置いており、プログラマが設計を推論し伝達するために自然に使用する視覚的および空間的表現を無視している。
本稿では,このテキスト中心の焦点が,新たなプログラミング活動やアセスメントを実現するために,コード生成のプロンプトとして機能する問題分解図など,GenAIモデルの他の形態を見落としている,という仮の証拠を論じ,提示する。
そこでは,GPT-4.1をコード生成に役立てる分解図を構築した。
我々は、現在のモデルが学生が構築した図からコードを生成する能力に非常に成功したことを実証する。
本稿では,コンピュータ教育,特に評価の文脈において,マルチモーダル・プロンプトの導入がもたらす意味について考察する。
関連論文リスト
- Teaching Programming in the Age of Generative AI: Insights from Literature, Pedagogical Proposals, and Student Perspectives [0.0]
この記事では、プログラミングコンテンツがどのように教えられ、学習され、評価されるべきかについて、最も関連する研究をレビューすることを目的とする。
コードの理解と実行に焦点をあてて、教育と学習の方法論を充実させることを提案する。
プログラミングの教え、学習、評価のための効果的なツールとして、コードの視覚表現と実行の視覚シミュレーションの使用を提唱している。
論文 参考訳(メタデータ) (2025-06-30T17:38:27Z) - Prompt Programming: A Platform for Dialogue-based Computational Problem Solving with Generative AI Models [21.267699046566698]
学生は、しばしば正式な指導や指導なしに、プログラミング支援のために生成AIツールをますます頼りにしている。
このことは、学生にAIモデルと効果的に対話する方法を教える必要性を強調している。
我々は,対話に基づく対話を可能にするプロンプトプログラミングのための新しいプラットフォームを開発した。
論文 参考訳(メタデータ) (2025-03-06T09:56:07Z) - An Exploratory Study of ML Sketches and Visual Code Assistants [9.451971404904722]
私たちは、IDE内スケッチ・トゥ・コードツールに関するユーザからのフィードバックを得るために、Visual Code Assistantの最初のプロトタイプを構築します。
機械学習ワークフローを開発する際に、スケッチでよく見られるパターンを分析し、開発者のメンタルモデルを分析する。
LLM-as-judgeセットアップを使用して生成したコードの品質をスコアし、簡単なスケッチであっても有用なコードアウトラインを効果的に生成できることを発見します。
論文 参考訳(メタデータ) (2024-12-17T23:44:45Z) - A Picture Is Worth a Thousand Words: Exploring Diagram and Video-Based
OOP Exercises to Counter LLM Over-Reliance [2.1490831374964587]
大規模言語モデル(LLM)は、テキストベースの仕様で、より複雑なオブジェクト指向プログラミング(OOP)の課題を効果的に解決することができる。
これは、学生がこれらのモデルを使って非倫理的に課題を完了させるため、学術的完全性に対する懸念を提起する。
本稿では,OOP の授業において,学生の課題解決を奨励し,学生をコピー・アンド・プロンプト・アプローチから遠ざける方法として,図表やビデオを用いてOOP タスクを定式化する革新的な手法を提案する。
論文 参考訳(メタデータ) (2024-03-13T10:21:29Z) - Large Language Models as Analogical Reasoners [155.9617224350088]
CoT(Chain-of- Thought)は、言語モデルのプロンプトとして、推論タスク全体で素晴らしいパフォーマンスを示す。
そこで本稿では,大規模言語モデルの推論プロセスを自動的にガイドする,新たなプロンプト手法であるアナログプロンプトを導入する。
論文 参考訳(メタデータ) (2023-10-03T00:57:26Z) - Evaluating ChatGPT and GPT-4 for Visual Programming [20.64766977405438]
GPT-3.5 に基づく ChatGPT と GPT-4 の 2 つのモデルを評価する。
その結果,これらのモデルでは,視覚的プログラミングに不可欠な空間的,論理的,プログラム的スキルの組み合わせが困難であることが示唆された。
論文 参考訳(メタデータ) (2023-07-30T22:13:20Z) - Exploring Large Language Model for Graph Data Understanding in Online
Job Recommendations [63.19448893196642]
本稿では,大規模言語モデルが提供するリッチな文脈情報と意味表現を利用して行動グラフを解析する新しいフレームワークを提案する。
この機能を利用することで、個々のユーザに対してパーソナライズされた、正確なジョブレコメンデーションが可能になる。
論文 参考訳(メタデータ) (2023-07-10T11:29:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。