論文の概要: The Robots are Here: Navigating the Generative AI Revolution in
Computing Education
- arxiv url: http://arxiv.org/abs/2310.00658v1
- Date: Sun, 1 Oct 2023 12:54:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 02:51:49.517713
- Title: The Robots are Here: Navigating the Generative AI Revolution in
Computing Education
- Title(参考訳): コンピューター教育におけるaiのジェネレーティブ革命をナビゲートするロボットが登場
- Authors: James Prather, Paul Denny, Juho Leinonen, Brett A. Becker, Ibrahim
Albluwi, Michelle Craig, Hieke Keuning, Natalie Kiesler, Tobias Kohn, Andrew
Luxton-Reilly, Stephen MacNeil, Andrew Peterson, Raymond Pettit, Brent N.
Reeves, Jaromir Savelka
- Abstract要約: 人工知能(AI)の最近の進歩は、コンピューティングを根本的に再構築している。
大規模言語モデル(LLM)は、ソースコードと自然言語命令を効果的に生成、解釈できるようになった。
これらの能力は、教育者がこれらの課題にどう対処すべきかという緊急の疑問を引き起こしている。
- 参考スコア(独自算出の注目度): 4.877774347152004
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in artificial intelligence (AI) are fundamentally
reshaping computing, with large language models (LLMs) now effectively being
able to generate and interpret source code and natural language instructions.
These emergent capabilities have sparked urgent questions in the computing
education community around how educators should adapt their pedagogy to address
the challenges and to leverage the opportunities presented by this new
technology. In this working group report, we undertake a comprehensive
exploration of LLMs in the context of computing education and make five
significant contributions. First, we provide a detailed review of the
literature on LLMs in computing education and synthesise findings from 71
primary articles. Second, we report the findings of a survey of computing
students and instructors from across 20 countries, capturing prevailing
attitudes towards LLMs and their use in computing education contexts. Third, to
understand how pedagogy is already changing, we offer insights collected from
in-depth interviews with 22 computing educators from five continents who have
already adapted their curricula and assessments. Fourth, we use the ACM Code of
Ethics to frame a discussion of ethical issues raised by the use of large
language models in computing education, and we provide concrete advice for
policy makers, educators, and students. Finally, we benchmark the performance
of LLMs on various computing education datasets, and highlight the extent to
which the capabilities of current models are rapidly improving. Our aim is that
this report will serve as a focal point for both researchers and practitioners
who are exploring, adapting, using, and evaluating LLMs and LLM-based tools in
computing classrooms.
- Abstract(参考訳): 人工知能(AI)の最近の進歩は、コンピュータを根本的に再構築し、大規模言語モデル(LLM)は、ソースコードと自然言語命令を効果的に生成、解釈できるようになっている。
これらの創発的な能力は、教育者がこれらの課題にどう対応し、この新しい技術によってもたらされる機会を活用するべきかという、コンピュータ教育コミュニティの緊急の疑問を引き起こした。
本報告では,コンピュータ教育におけるllmの包括的探索を行い,5つの重要な貢献を行った。
まず、コンピュータ教育におけるLLMに関する文献の詳細なレビューと71の主記事からの合成結果について述べる。
第2に,20か国にまたがるコンピュータ学生とインストラクターを対象に,llmに対する一般的な態度とコンピュータ教育の文脈における利用について調査を行った。
第三に、教育がどう変化しているかを理解するために、すでにカリキュラムと評価を取り入れた5大陸の22のコンピューティング教育者との詳細なインタビューから得られた洞察を提供する。
第4に,acm倫理規範(acm code of ethics)を用いて,大規模言語モデルを用いた計算機教育における倫理的課題の議論を行い,政策立案者,教育者,学生に対して具体的アドバイスを行った。
最後に,様々な計算教育データセットにおけるllmsの性能をベンチマークし,現在のモデルの能力が急速に向上していることを示す。
本報告は, LLM と LLM ベースのツールをコンピュータ教室で探索, 適用, 使用, 評価している研究者と実践者の双方にとって, 焦点となるものとなる。
関連論文リスト
- Enhancing Instructional Quality: Leveraging Computer-Assisted Textual
Analysis to Generate In-Depth Insights from Educational Artifacts [13.617709093240231]
本研究では、人工知能(AI)と機械学習(ML)が教育内容、教師の談話、学生の反応を分析して教育改善を促進する方法について検討する。
私たちは、教師のコーチング、学生のサポート、コンテンツ開発など、AI/ML統合が大きな利点をもたらす重要な領域を特定します。
本稿では,AI/ML技術と教育的目標との整合性の重要性を強調し,その教育的可能性を実現する。
論文 参考訳(メタデータ) (2024-03-06T18:29:18Z) - An Empirical Study on Usage and Perceptions of LLMs in a Software
Engineering Project [1.433758865948252]
大規模言語モデル(LLM)は人工知能の飛躍であり、人間の言語を用いたタスクに優れる。
本稿では、AI生成したコードを分析し、コード生成に使用するプロンプトと人間の介入レベルを分析し、コードをコードベースに統合する。
ソフトウェア開発の初期段階において,LSMが重要な役割を担っていることが示唆された。
論文 参考訳(メタデータ) (2024-01-29T14:32:32Z) - Taking the Next Step with Generative Artificial Intelligence: The
Transformative Role of Multimodal Large Language Models in Science Education [14.679589098673416]
MLLM(Multimodal Large Language Models)は、テキスト、音声、視覚入力を含むマルチモーダルデータを処理できる。
本稿では,科学教育の中心的な側面におけるMLLMの変革的役割について,模範的な革新的な学習シナリオを提示することによって考察する。
論文 参考訳(メタデータ) (2024-01-01T18:11:43Z) - Adapting Large Language Models for Education: Foundational Capabilities,
Potentials, and Challenges [62.909058209342334]
ChatGPTのような大規模言語モデル(LLM)は、個々の要求を解釈することでこの問題を解決する可能性を提供する。
本稿では, 数学, 文章, プログラミング, 推論, 知識に基づく質問応答など, 教育能力に関する最近のLLM研究を概観する。
論文 参考訳(メタデータ) (2023-12-27T14:37:32Z) - Combatting Human Trafficking in the Cyberspace: A Natural Language
Processing-Based Methodology to Analyze the Language in Online Advertisements [55.2480439325792]
このプロジェクトは、高度自然言語処理(NLP)技術により、オンラインC2Cマーケットプレースにおける人身売買の急激な問題に取り組む。
我々は、最小限の監督で擬似ラベル付きデータセットを生成する新しい手法を導入し、最先端のNLPモデルをトレーニングするための豊富なリソースとして機能する。
重要な貢献は、Integrated Gradientsを使った解釈可能性フレームワークの実装であり、法執行にとって重要な説明可能な洞察を提供する。
論文 参考訳(メタデータ) (2023-11-22T02:45:01Z) - Instruction Tuning for Large Language Models: A Survey [52.86322823501338]
我々は、ITの一般的な方法論、ITデータセットの構築、ITモデルのトレーニング、異なるモダリティ、ドメイン、アプリケーションへのアプリケーションを含む、文献を体系的にレビューする。
また、ITの潜在的な落とし穴とそれに対する批判、および既存の戦略の現在の欠陥を指摘し、実りある研究の道筋を提案する。
論文 参考訳(メタデータ) (2023-08-21T15:35:16Z) - Aligning Large Language Models with Human: A Survey [53.6014921995006]
広範囲なテキストコーパスで訓練されたLarge Language Models (LLM) は、幅広い自然言語処理(NLP)タスクの先導的なソリューションとして登場した。
その顕著な性能にもかかわらず、これらのモデルは、人間の指示を誤解したり、偏見のあるコンテンツを生成したり、事実的に誤った情報を生成するといった、ある種の制限を受ける傾向にある。
本調査では,これらのアライメント技術の概要について概観する。
論文 参考訳(メタデータ) (2023-07-24T17:44:58Z) - What Should Data Science Education Do with Large Language Models? [35.94265894727157]
ChatGPTのような大規模言語モデル(LLM)の急速な進歩は、データサイエンスと統計学に革命をもたらしている。
LLMはデータサイエンティストの責務を転換し、手作業によるコーディング、データラングリング、標準分析から、これらの自動化AIによる分析の評価と管理へと焦点を移している、と私たちは主張する。
本稿では,これら各方向性に対する機会,資源,オープンな課題について論じる。
論文 参考訳(メタデータ) (2023-07-06T06:07:29Z) - LAMM: Language-Assisted Multi-Modal Instruction-Tuning Dataset,
Framework, and Benchmark [81.42376626294812]
本稿では,Language-Assisted Multi-Modalインストラクションチューニングデータセット,フレームワーク,ベンチマークを提案する。
我々の目標は、MLLMのトレーニングと評価のための成長するエコシステムとしてLAMMを確立することです。
本稿では,2次元および3次元視覚のための広範囲な視覚タスクをカバーする包括的データセットとベンチマークを提案する。
論文 参考訳(メタデータ) (2023-06-11T14:01:17Z) - Automatically Generating CS Learning Materials with Large Language
Models [4.526618922750769]
大きな言語モデル(LLM)は、ソフトウェア開発者が自然言語のプロンプトに基づいてコードを生成することを可能にする。
LLMは、インストラクターが学習材料をスケールするのを手助けしながら、学生が新しい方法でコードと対話することを可能にする。
LLMはまた、学術的完全性、カリキュラム設計、ソフトウェア工学のキャリアに新しい意味を導入している。
論文 参考訳(メタデータ) (2022-12-09T20:37:44Z) - A Survey of Knowledge Enhanced Pre-trained Language Models [78.56931125512295]
我々は、知識強化事前学習言語モデル(KE-PLMs)の包括的なレビューを行う。
NLUでは、言語知識、テキスト知識、知識グラフ(KG)、ルール知識の4つのカテゴリに分類する。
NLGのKE-PLMは、KGベースと検索ベースに分類される。
論文 参考訳(メタデータ) (2022-11-11T04:29:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。