論文の概要: A Framework for Responsible Development of Automated Student Feedback
with Generative AI
- arxiv url: http://arxiv.org/abs/2308.15334v1
- Date: Tue, 29 Aug 2023 14:29:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 13:42:30.097507
- Title: A Framework for Responsible Development of Automated Student Feedback
with Generative AI
- Title(参考訳): 生成AIを用いた自動学生フィードバックの責任開発のためのフレームワーク
- Authors: Euan D Lindsay, Aditya Johri, Johannes Bjerva
- Abstract要約: 生成AIの最近の進歩は、反復可能でスケーラブルで、即座に生成されたフィードバックを学生に届ける機会を提供する。
本稿では,自動フィードバックのフロンティアの概要を概説するとともに,自動フィードバックの提供に関わる倫理的問題を特定し,学術者がこのようなシステム開発に責任を負うように支援する枠組みを提案する。
- 参考スコア(独自算出の注目度): 3.0456580409182155
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Providing rich feedback to students is essential for supporting student
learning. Recent advances in generative AI, particularly within large language
modelling (LLM), provide the opportunity to deliver repeatable, scalable and
instant automatically generated feedback to students, making abundant a
previously scarce and expensive learning resource. Such an approach is feasible
from a technical perspective due to these recent advances in Artificial
Intelligence (AI) and Natural Language Processing (NLP); while the potential
upside is a strong motivator, doing so introduces a range of potential ethical
issues that must be considered as we apply these technologies. The
attractiveness of AI systems is that they can effectively automate the most
mundane tasks; but this risks introducing a "tyranny of the majority", where
the needs of minorities in the long tail are overlooked because they are
difficult to automate.
Developing machine learning models that can generate valuable and authentic
feedback requires the input of human domain experts. The choices we make in
capturing this expertise -- whose, which, when, and how -- will have
significant consequences for the nature of the resulting feedback. How we
maintain our models will affect how that feedback remains relevant given
temporal changes in context, theory, and prior learning profiles of student
cohorts. These questions are important from an ethical perspective; but they
are also important from an operational perspective. Unless they can be
answered, our AI generated systems will lack the trust necessary for them to be
useful features in the contemporary learning environment.
This article will outline the frontiers of automated feedback, identify the
ethical issues involved in the provision of automated feedback and present a
framework to assist academics to develop such systems responsibly.
- Abstract(参考訳): 学生に豊富なフィードバックを提供することは、学生の学習を支援するために不可欠である。
最近のジェネレイティブaiの進歩、特に大言語モデリング(llm)は、繰り返し可能でスケーラブルで、瞬時に生成されたフィードバックを学生に届ける機会を提供し、これまで不足していた、高価な学習リソースを豊富に活用する。
このようなアプローチは、最近の人工知能(AI)と自然言語処理(NLP)の進歩により、技術的な観点から実現可能である。
aiシステムの魅力は、最も平凡なタスクを効果的に自動化できることにあるが、自動化が難しいため、ロングテールのマイノリティのニーズが見過ごされる"多数派tyranny of the majority"を導入するリスクがある。
価値と真正なフィードバックを生み出すマシンラーニングモデルの開発には、人間ドメインの専門家の入力が必要だ。
この専門知識(いつ、いつ、どのようにして)を捉えることで得られる選択は、結果のフィードバックの性質に重大な影響を与えるでしょう。
私たちのモデルをどのように維持するかは、学生コホートの文脈、理論、事前学習プロファイルの時間的変化を考慮して、そのフィードバックがどのように関係するかに影響を及ぼす。
これらの質問は倫理的な観点から重要であるが、運用の観点からも重要である。
答えが得られなければ、私たちのAI生成システムは、現代の学習環境において有用な機能であるために必要な信頼を欠くでしょう。
本稿では,自動フィードバックのフロンティアの概要を概説するとともに,自動フィードバックの提供に関わる倫理的問題を特定し,学術者がこのようなシステム開発に責任を負うように支援する枠組みを提案する。
関連論文リスト
- Explainable Artificial Intelligence Techniques for Accurate Fault Detection and Diagnosis: A Review [0.0]
この文脈でeXplainable AI(XAI)ツールとテクニックをレビューする。
私たちは、AI決定を透明にする彼らの役割、特に人間が関与する重要なシナリオに重点を置いています。
モデル性能と説明可能性のバランスをとることを目的とした,現在の限界と今後の研究について論じる。
論文 参考訳(メタデータ) (2024-04-17T17:49:38Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - New Era of Artificial Intelligence in Education: Towards a Sustainable
Multifaceted Revolution [2.94944680995069]
標準化された学術試験におけるChatGPTのハイパフォーマンスは、人工知能(AI)のトピックを、教育の将来に関する主流の議論に押し付けている。
本研究の目的は、応用、利点、課題の3つの主要な軸にまたがる既存の文献のレビューと分析を通じて、AIが教育に与える影響について調査することである。
論文 参考訳(メタデータ) (2023-05-12T08:22:54Z) - AGI: Artificial General Intelligence for Education [41.45039606933712]
本稿では,人工知能(AGI)の重要な概念,能力,範囲,将来的な教育の可能性について概説する。
AGIは知的学習システム、教育評価、評価手順を大幅に改善することができる。
この論文は、AGIの能力が人間の感情や社会的相互作用を理解することに拡張されていることを強調している。
論文 参考訳(メタデータ) (2023-04-24T22:31:59Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Modelos din\^amicos aplicados \`a aprendizagem de valores em
intelig\^encia artificial [0.0]
この地域の数人の研究者が、人間と環境の保存のための堅牢で有益な、安全なAIの概念を開発した。
人工知能エージェントが人間の価値観に合わせた価値を持っていることは、最も重要である。
おそらくこの難しさは、認知的手法を使って価値を表現するという問題に対処する方法から来ています。
論文 参考訳(メタデータ) (2020-07-30T00:56:11Z) - Dynamic Cognition Applied to Value Learning in Artificial Intelligence [0.0]
この分野の数人の研究者が、堅牢で有益で安全な人工知能の概念を開発しようとしている。
人工知能エージェントが人間の価値観に合わせた価値を持っていることは、最も重要である。
この問題に対する可能なアプローチは、SEDのような理論モデルを使用することである。
論文 参考訳(メタデータ) (2020-05-12T03:58:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。