論文の概要: Assigning AI: Seven Approaches for Students, with Prompts
- arxiv url: http://arxiv.org/abs/2306.10052v1
- Date: Tue, 13 Jun 2023 03:36:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-26 01:39:06.973026
- Title: Assigning AI: Seven Approaches for Students, with Prompts
- Title(参考訳): aiを割り当てる:プロンプトで学生に7つのアプローチ
- Authors: Ethan Mollick, Lilach Mollick
- Abstract要約: 本稿では,Large Language Models(LLM)の教育における転換的役割とその学習ツールとしての可能性について考察する。
AI-tutor、AI-coach、AI-mentor、AI-teammate、AI-tool、AI-simulator、AI-studentの7つのアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper examines the transformative role of Large Language Models (LLMs)
in education and their potential as learning tools, despite their inherent
risks and limitations. The authors propose seven approaches for utilizing AI in
classrooms: AI-tutor, AI-coach, AI-mentor, AI-teammate, AI-tool, AI-simulator,
and AI-student, each with distinct pedagogical benefits and risks. The aim is
to help students learn with and about AI, with practical strategies designed to
mitigate risks such as complacency about the AI's output, errors, and biases.
These strategies promote active oversight, critical assessment of AI outputs,
and complementarity of AI's capabilities with the students' unique insights. By
challenging students to remain the "human in the loop," the authors aim to
enhance learning outcomes while ensuring that AI serves as a supportive tool
rather than a replacement. The proposed framework offers a guide for educators
navigating the integration of AI-assisted learning in classrooms
- Abstract(参考訳): 本稿では,Large Language Models(LLM)の教育における転換的役割とその学習ツールとしての可能性について検討する。
AI-tutor、AI-coach、AI-mentor、AI-teammate、AI-tool、AI-simulator、AI-studentは、それぞれ異なる教育上のメリットとリスクを持つ。
目的は、AIのアウトプットやエラー、バイアスといったリスクを軽減するために設計された実践的な戦略によって、AIについて学び、学ぶことを支援することである。
これらの戦略は、アクティブな監視、AI出力の批判的評価、および生徒のユニークな洞察とAI能力の相補性を促進する。
学生に「ループの中の人間」にとどまるよう促すことで、AIが代替ではなく支援ツールとして機能することを保証するとともに、学習成果を高めることを目指している。
授業におけるai支援学習の統合をナビゲートする教育者のための枠組みの提案
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Human-Centric eXplainable AI in Education [0.0]
本稿では,教育現場における人間中心型eXplainable AI(HCXAI)について検討する。
学習成果の向上、ユーザ間の信頼の向上、AI駆動ツールの透明性確保における役割を強調している。
ユーザ理解とエンゲージメントを優先するHCXAIシステムの開発のための包括的なフレームワークを概説する。
論文 参考訳(メタデータ) (2024-10-18T14:02:47Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Untangling Critical Interaction with AI in Students Written Assessment [2.8078480738404]
重要な課題は、人間が必須の批判的思考とAIリテラシースキルを備えていることを保証することである。
本稿では,AIと批判的学習者インタラクションの概念を概念化するための第一歩を提供する。
理論的モデルと経験的データの両方を用いて、予備的な発見は、書き込みプロセス中にAIとのディープインタラクションが全般的に欠如していることを示唆している。
論文 参考訳(メタデータ) (2024-04-10T12:12:50Z) - The AI Incident Database as an Educational Tool to Raise Awareness of AI
Harms: A Classroom Exploration of Efficacy, Limitations, & Future
Improvements [14.393183391019292]
AIインシデントデータベース(AIID)は、AI技術の現実世界への展開に起因する害や害の先行事例を索引付けする、比較的包括的なデータベースを提供する、数少ない試みの1つである。
本研究は、社会的に高い領域におけるAI損傷の有病率と重症度に対する意識を高めるための教育ツールとしてのAIIDの有効性を評価する。
論文 参考訳(メタデータ) (2023-10-10T02:55:09Z) - Is AI Changing the Rules of Academic Misconduct? An In-depth Look at
Students' Perceptions of 'AI-giarism' [0.0]
本研究は,AIと盗作を包含する学問的不正行為の創発的形態である,AI-giarismに対する学生の認識を探求する。
この発見は、AIコンテンツ生成に対する明確な不承認を伴う、複雑な理解の風景を描いている。
この研究は、学術、政策立案、そして教育におけるAI技術のより広範な統合に関する重要な洞察を提供する。
論文 参考訳(メタデータ) (2023-06-06T02:22:08Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。