論文の概要: The Responsible Development of Automated Student Feedback with Generative AI
- arxiv url: http://arxiv.org/abs/2308.15334v2
- Date: Tue, 30 Jul 2024 06:36:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-31 22:59:28.156086
- Title: The Responsible Development of Automated Student Feedback with Generative AI
- Title(参考訳): 生成型AIを用いた自動学生フィードバックの開発
- Authors: Euan D Lindsay, Mike Zhang, Aditya Johri, Johannes Bjerva,
- Abstract要約: 本稿では、学生に自動フィードバックを提供するため、生成型AIツールを実装するための4つの批判的倫理的考察について述べる。
この作業の目標は、AIシステムを使用して、"多数派暴行"を導入することなく、日常的な評価とフィードバックタスクを自動化することである。
- 参考スコア(独自算出の注目度): 6.008616775722921
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contribution: This paper identifies four critical ethical considerations for implementing generative AI tools to provide automated feedback to students. Background: Providing rich feedback to students is essential for supporting student learning. Recent advances in generative AI, particularly with large language models (LLMs), provide the opportunity to deliver repeatable, scalable and instant automatically generated feedback to students, making abundant a previously scarce and expensive learning resource. Such an approach is feasible from a technical perspective due to these recent advances in Artificial Intelligence (AI) and Natural Language Processing (NLP); while the potential upside is a strong motivator, doing so introduces a range of potential ethical issues that must be considered as we apply these technologies. Intended Outcomes: The goal of this work is to enable the use of AI systems to automate mundane assessment and feedback tasks, without introducing a "tyranny of the majority", where the needs of minorities in the long tail are overlooked because they are difficult to automate. Application Design: This paper applies an extant ethical framework used for AI and machine learning to the specific challenge of providing automated feedback to student engineers. The task is considered from both a development and maintenance perspective, considering how automated feedback tools will evolve and be used over time. Findings: This paper identifies four key ethical considerations for the implementation of automated feedback for students: Participation, Development, Impact on Learning and Evolution over Time.
- Abstract(参考訳): コントリビューション: 学生に自動フィードバックを提供するため, 生成型AIツールを実装する上で, 批判的倫理的考察を4つ挙げる。
背景:学生に豊かなフィードバックを提供することは、学生の学習を支援するのに不可欠である。
生成AIの最近の進歩、特に大規模言語モデル(LLM)は、学生に繰り返し、スケーラブルで、即座に生成されたフィードバックを提供する機会を提供する。
このようなアプローチは、最近の人工知能(AI)と自然言語処理(NLP)の進歩により、技術的な観点から実現可能である。
Intended Outcomes: この作業の目標は、自動化が難しいため、長い尾のマイノリティのニーズが見過ごされる"多数派の暴徒"を導入することなく、AIシステムを使用して日常的な評価とフィードバックタスクを自動化することです。
アプリケーション設計: この論文は、AIと機械学習に使われている既存の倫理的枠組みを、学生エンジニアに自動フィードバックを提供するという特定の課題に適用する。
このタスクは、自動フィードバックツールが時間とともにどのように進化し、どのように使用されるかを考慮して、開発とメンテナンスの両方の観点から検討されている。
Findings: 本論文は,学生に対する自動フィードバックの実装に関する4つの重要な倫理的考察を明らかにする。
関連論文リスト
- AI in Education: Rationale, Principles, and Instructional Implications [0.0]
ChatGPTのような生成AIは、人間のようなコンテンツを作り、その教育的役割について疑問を呈する。
この研究は、AIが真の認知的努力を補うのではなく、確実に補完する意図的な戦略を強調している。
論文 参考訳(メタデータ) (2024-12-02T14:08:07Z) - Human-Centric eXplainable AI in Education [0.0]
本稿では,教育現場における人間中心型eXplainable AI(HCXAI)について検討する。
学習成果の向上、ユーザ間の信頼の向上、AI駆動ツールの透明性確保における役割を強調している。
ユーザ理解とエンゲージメントを優先するHCXAIシステムの開発のための包括的なフレームワークを概説する。
論文 参考訳(メタデータ) (2024-10-18T14:02:47Z) - Generative AI and Its Impact on Personalized Intelligent Tutoring Systems [0.0]
生成AIは、動的コンテンツ生成、リアルタイムフィードバック、適応学習経路を通じてパーソナライズされた教育を可能にする。
報告では、自動質問生成、カスタマイズされたフィードバック機構、対話システムなどの重要な応用について検討する。
今後の方向性は、マルチモーダルAI統合の潜在的な進歩、学習システムにおける感情的知性、そしてAI駆動型教育の倫理的意味を強調する。
論文 参考訳(メタデータ) (2024-10-14T16:01:01Z) - Untangling Critical Interaction with AI in Students Written Assessment [2.8078480738404]
重要な課題は、人間が必須の批判的思考とAIリテラシースキルを備えていることを保証することである。
本稿では,AIと批判的学習者インタラクションの概念を概念化するための第一歩を提供する。
理論的モデルと経験的データの両方を用いて、予備的な発見は、書き込みプロセス中にAIとのディープインタラクションが全般的に欠如していることを示唆している。
論文 参考訳(メタデータ) (2024-04-10T12:12:50Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - A Survey on Brain-Inspired Deep Learning via Predictive Coding [85.93245078403875]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Modelos din\^amicos aplicados \`a aprendizagem de valores em
intelig\^encia artificial [0.0]
この地域の数人の研究者が、人間と環境の保存のための堅牢で有益な、安全なAIの概念を開発した。
人工知能エージェントが人間の価値観に合わせた価値を持っていることは、最も重要である。
おそらくこの難しさは、認知的手法を使って価値を表現するという問題に対処する方法から来ています。
論文 参考訳(メタデータ) (2020-07-30T00:56:11Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。