論文の概要: Closing the Loop: An Instructor-in-the-Loop AI Assistance System for Supporting Student Help-Seeking in Programming Education
- arxiv url: http://arxiv.org/abs/2510.14457v1
- Date: Thu, 16 Oct 2025 08:57:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.788516
- Title: Closing the Loop: An Instructor-in-the-Loop AI Assistance System for Supporting Student Help-Seeking in Programming Education
- Title(参考訳): ループを閉じる:プログラミング教育における学生支援を支援するインストラクタ・イン・ザ・ループAI支援システム
- Authors: Tung Phung, Heeryung Choi, Mengyan Wu, Christopher Brooks, Sumit Gulwani, Adish Singla,
- Abstract要約: 本稿では,AI生成ヒントとエスカレーション機構を統合したハイブリッドヘルプフレームワークを提案する。
その結果、673件のAIによるヒントのうち、146件(22%)が無害と評価された。
この発見は、AIサポートが失敗した場合、専門家のインストラクターでさえ、ミスを犯すのを避けるためにもっと注意を払う必要があることを示唆している。
- 参考スコア(独自算出の注目度): 21.729610894273563
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Timely and high-quality feedback is essential for effective learning in programming courses; yet, providing such support at scale remains a challenge. While AI-based systems offer scalable and immediate help, their responses can occasionally be inaccurate or insufficient. Human instructors, in contrast, may bring more valuable expertise but are limited in time and availability. To address these limitations, we present a hybrid help framework that integrates AI-generated hints with an escalation mechanism, allowing students to request feedback from instructors when AI support falls short. This design leverages the strengths of AI for scale and responsiveness while reserving instructor effort for moments of greatest need. We deployed this tool in a data science programming course with 82 students. We observe that out of the total 673 AI-generated hints, students rated 146 (22%) as unhelpful. Among those, only 16 (11%) of the cases were escalated to the instructors. A qualitative investigation of instructor responses showed that those feedback instances were incorrect or insufficient roughly half of the time. This finding suggests that when AI support fails, even instructors with expertise may need to pay greater attention to avoid making mistakes. We will publicly release the tool for broader adoption and enable further studies in other classrooms. Our work contributes a practical approach to scaling high-quality support and informs future efforts to effectively integrate AI and humans in education.
- Abstract(参考訳): プログラミングコースにおける効果的な学習には、タイムリーで高品質なフィードバックが不可欠です。
AIベースのシステムはスケーラブルで即時的な支援を提供するが、その応答は時に不正確または不十分である。
対照的に、人間のインストラクターは、より価値のある専門知識をもたらすかもしれないが、時間と可用性に制限がある。
これらの制限に対処するために、AI生成ヒントとエスカレーション機構を統合したハイブリッドヘルプフレームワークを提案する。
この設計は、AIの強みをスケールと応答性に生かし、最大のニーズの瞬間にインストラクターの努力を保ちます。
私たちは82人の学生でデータサイエンスプログラミングコースにこのツールを配置しました。
673件のAIによるヒントのうち、学生は146件(22%)を無害と評価した。
そのうち16例(11%)がインストラクターにエスカレーションされた。
インストラクターの回答の質的な調査は、これらのフィードバックのインスタンスは、ほぼ半分の時間で誤りまたは不十分であることを示した。
この発見は、AIサポートが失敗した場合、専門家のインストラクターでさえ、ミスを犯すのを避けるためにもっと注意を払う必要があることを示唆している。
我々は、このツールを広く採用するために公開し、他の教室でさらなる研究を可能にする。
我々の研究は、高品質なサポートをスケールするための実践的なアプローチに貢献し、教育におけるAIと人間を効果的に統合するための今後の取り組みを通知します。
関連論文リスト
- Training LLM Agents to Empower Humans [67.80021254324294]
本稿では,人間のエンパワーメントの最大化に基づく支援言語モデルのチューニング手法を提案する。
我々のエンパワーメント最大化手法であるEmpowerは、オフラインのテキストデータのみを必要とする。
我々は,Empowerで訓練されたエージェントが,プログラミング問題に挑戦する人間プログラマの成功率を平均192%向上させることを示す。
論文 参考訳(メタデータ) (2025-10-15T16:09:33Z) - New Kid in the Classroom: Exploring Student Perceptions of AI Coding Assistants [0.0]
本研究では,初級プログラミングコースにおける初心者プログラマの体験をAIツールがいかに形作っているかを検討する。
学生は、AIツールがコードの概念を把握し、初期開発フェーズにおける信頼を高めるのに役立つと考えている。
しかし,基礎知識伝達の過度さとギャップを指摘して,学生が無意識に働くように求められた際,顕著な困難が生じた。
論文 参考訳(メタデータ) (2025-06-26T05:59:23Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - Sakshm AI: Advancing AI-Assisted Coding Education for Engineering Students in India Through Socratic Tutoring and Comprehensive Feedback [1.9841192743072902]
プログラミング教育のための既存のAIツールは、ソクラティックガイダンスの欠如など、重要な課題に直面している。
本研究では,1170名の登録参加者を対象に,プラットフォームログ,エンゲージメント傾向,問題解決行動を分析し,Sakhm AIの効果を評価する。
論文 参考訳(メタデータ) (2025-03-16T12:13:29Z) - Could ChatGPT get an Engineering Degree? Evaluating Higher Education Vulnerability to AI Assistants [176.39275404745098]
我々は,2つのAIアシスタントであるGPT-3.5とGPT-4が適切な回答を得られるかどうかを評価する。
GPT-4は65.8%の質問を正解し、85.1%の質問に対して少なくとも1つの手順で正しい答えを出すことができる。
この結果から,AIの進歩を踏まえて,高等教育におけるプログラムレベルの評価設計の見直しが求められた。
論文 参考訳(メタデータ) (2024-08-07T12:11:49Z) - Desirable Characteristics for AI Teaching Assistants in Programming Education [2.9131215715703385]
デジタル教育アシスタントは、即時かつ公平なラウンド・ザ・クロックのサポートを提供する、魅力的でスケーラブルな方法として登場した。
この結果から,学生はこのようなツールを,即時かつ活発な支援を提供する能力に重きを置いていることが明らかとなった。
彼らはまた、学習ジャーニーにおける自律性を維持する機能への強い好意を表明した。
論文 参考訳(メタデータ) (2024-05-23T05:03:49Z) - CourseAssist: Pedagogically Appropriate AI Tutor for Computer Science Education [1.052788652996288]
このポスターでは、コンピュータサイエンス教育用に作られた新しいLLMベースのチューターシステムであるCourseAssistを紹介している。
一般的なLLMシステムとは異なり、CourseAssistは検索強化生成、ユーザ意図分類、質問分解を使用して、AI応答を特定のコース材料や学習目標と整合させる。
論文 参考訳(メタデータ) (2024-05-01T20:43:06Z) - The Responsible Development of Automated Student Feedback with Generative AI [6.008616775722921]
AIの最近の進歩、特に大規模言語モデル(LLM)では、スケーラブルで反復可能でインスタントなフィードバックを提供する新たな機会が提示されている。
しかし、これらの技術の実装には、慎重に対処しなければならない多くの倫理的考察も導入されている。
AIシステムの中核となる利点の1つは、ルーチンや日常的なタスクを自動化する能力であり、人間の教育者を解放して、より微妙な仕事をさせる可能性がある。
しかし、自動化の容易さは、少数派や独特な学習者の多様なニーズが見過ごされる「多数派」の暴行を招きかねない。
論文 参考訳(メタデータ) (2023-08-29T14:29:57Z) - Human Decision Makings on Curriculum Reinforcement Learning with
Difficulty Adjustment [52.07473934146584]
我々は,カリキュラム強化学習結果を,人的意思決定プロセスから学ぶことで,難しすぎず,難しすぎるような望ましいパフォーマンスレベルに導く。
本システムは非常に並列化可能であり,大規模強化学習アプリケーションの訓練が可能となる。
強化学習性能は、人間の所望の難易度と同期してうまく調整できることが示される。
論文 参考訳(メタデータ) (2022-08-04T23:53:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。