論文の概要: Assigning AI: Seven Approaches for Students, with Prompts
- arxiv url: http://arxiv.org/abs/2306.10052v1
- Date: Tue, 13 Jun 2023 03:36:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-26 01:39:06.973026
- Title: Assigning AI: Seven Approaches for Students, with Prompts
- Title(参考訳): aiを割り当てる:プロンプトで学生に7つのアプローチ
- Authors: Ethan Mollick, Lilach Mollick
- Abstract要約: 本稿では,Large Language Models(LLM)の教育における転換的役割とその学習ツールとしての可能性について考察する。
AI-tutor、AI-coach、AI-mentor、AI-teammate、AI-tool、AI-simulator、AI-studentの7つのアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper examines the transformative role of Large Language Models (LLMs)
in education and their potential as learning tools, despite their inherent
risks and limitations. The authors propose seven approaches for utilizing AI in
classrooms: AI-tutor, AI-coach, AI-mentor, AI-teammate, AI-tool, AI-simulator,
and AI-student, each with distinct pedagogical benefits and risks. The aim is
to help students learn with and about AI, with practical strategies designed to
mitigate risks such as complacency about the AI's output, errors, and biases.
These strategies promote active oversight, critical assessment of AI outputs,
and complementarity of AI's capabilities with the students' unique insights. By
challenging students to remain the "human in the loop," the authors aim to
enhance learning outcomes while ensuring that AI serves as a supportive tool
rather than a replacement. The proposed framework offers a guide for educators
navigating the integration of AI-assisted learning in classrooms
- Abstract(参考訳): 本稿では,Large Language Models(LLM)の教育における転換的役割とその学習ツールとしての可能性について検討する。
AI-tutor、AI-coach、AI-mentor、AI-teammate、AI-tool、AI-simulator、AI-studentは、それぞれ異なる教育上のメリットとリスクを持つ。
目的は、AIのアウトプットやエラー、バイアスといったリスクを軽減するために設計された実践的な戦略によって、AIについて学び、学ぶことを支援することである。
これらの戦略は、アクティブな監視、AI出力の批判的評価、および生徒のユニークな洞察とAI能力の相補性を促進する。
学生に「ループの中の人間」にとどまるよう促すことで、AIが代替ではなく支援ツールとして機能することを保証するとともに、学習成果を高めることを目指している。
授業におけるai支援学習の統合をナビゲートする教育者のための枠組みの提案
関連論文リスト
- "From Unseen Needs to Classroom Solutions": Exploring AI Literacy Challenges & Opportunities with Project-based Learning Toolkit in K-12 Education [0.3994567502796064]
K-12の生徒には、コンピュータ科学を超えて、AIリテラシーのスキルを身につける必要性がますます高まっている。
本稿では,PBL(Project-Based Learning)AIツールキットをさまざまな分野に統合し,教育者がAI概念をより効果的に教えることを目的とした。
論文 参考訳(メタデータ) (2024-12-23T03:31:02Z) - Who is Helping Whom? Student Concerns about AI- Teacher Collaboration in Higher Education Classrooms [8.888004194396643]
本稿では,授業におけるAIの意義を,教室の協調的ダイナミクスの観点から理解することを目的としている。
我々は65人の参加者の物語を分析し、教育コンテキストのAI非コンテクスト化、バイアスの懸念に対するAI-Teacherの協力、パワー格差の3つの課題を強調した。
効果的な倫理的AI実践型協調教育には、将来のAIEd設計は実装の在り方に影響を及ぼす必要があると論じる。
論文 参考訳(メタデータ) (2024-12-19T02:35:01Z) - AI in Education: Rationale, Principles, and Instructional Implications [0.0]
ChatGPTのような生成AIは、人間のようなコンテンツを作り、その教育的役割について疑問を呈する。
この研究は、AIが真の認知的努力を補うのではなく、確実に補完する意図的な戦略を強調している。
論文 参考訳(メタデータ) (2024-12-02T14:08:07Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Human-Centric eXplainable AI in Education [0.0]
本稿では,教育現場における人間中心型eXplainable AI(HCXAI)について検討する。
学習成果の向上、ユーザ間の信頼の向上、AI駆動ツールの透明性確保における役割を強調している。
ユーザ理解とエンゲージメントを優先するHCXAIシステムの開発のための包括的なフレームワークを概説する。
論文 参考訳(メタデータ) (2024-10-18T14:02:47Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Is AI Changing the Rules of Academic Misconduct? An In-depth Look at
Students' Perceptions of 'AI-giarism' [0.0]
本研究は,AIと盗作を包含する学問的不正行為の創発的形態である,AI-giarismに対する学生の認識を探求する。
この発見は、AIコンテンツ生成に対する明確な不承認を伴う、複雑な理解の風景を描いている。
この研究は、学術、政策立案、そして教育におけるAI技術のより広範な統合に関する重要な洞察を提供する。
論文 参考訳(メタデータ) (2023-06-06T02:22:08Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。