論文の概要: Human-Centric eXplainable AI in Education
- arxiv url: http://arxiv.org/abs/2410.19822v1
- Date: Fri, 18 Oct 2024 14:02:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-03 07:49:52.031820
- Title: Human-Centric eXplainable AI in Education
- Title(参考訳): 教育における人間中心eXplainable AI
- Authors: Subhankar Maity, Aniket Deroy,
- Abstract要約: 本稿では,教育現場における人間中心型eXplainable AI(HCXAI)について検討する。
学習成果の向上、ユーザ間の信頼の向上、AI駆動ツールの透明性確保における役割を強調している。
ユーザ理解とエンゲージメントを優先するHCXAIシステムの開発のための包括的なフレームワークを概説する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: As artificial intelligence (AI) becomes more integrated into educational environments, how can we ensure that these systems are both understandable and trustworthy? The growing demand for explainability in AI systems is a critical area of focus. This paper explores Human-Centric eXplainable AI (HCXAI) in the educational landscape, emphasizing its role in enhancing learning outcomes, fostering trust among users, and ensuring transparency in AI-driven tools, particularly through the innovative use of large language models (LLMs). What challenges arise in the implementation of explainable AI in educational contexts? This paper analyzes these challenges, addressing the complexities of AI models and the diverse needs of users. It outlines comprehensive frameworks for developing HCXAI systems that prioritize user understanding and engagement, ensuring that educators and students can effectively interact with these technologies. Furthermore, what steps can educators, developers, and policymakers take to create more effective, inclusive, and ethically responsible AI solutions in education? The paper provides targeted recommendations to address this question, highlighting the necessity of prioritizing explainability. By doing so, how can we leverage AI's transformative potential to foster equitable and engaging educational experiences that support diverse learners?
- Abstract(参考訳): 人工知能(AI)が教育環境に統合されるにつれて、これらのシステムが理解可能で信頼に値するものであることをどうやって保証できるのか?
AIシステムにおける説明可能性の増大は、重要な領域である。
本稿では,教育現場における人間中心型eXplainable AI(HCXAI)について検討し,学習成果の向上,ユーザ間の信頼の促進,AI駆動型ツールの透明性確保,特に大規模言語モデル(LLM)の革新的利用などに注目した。
教育的文脈における説明可能なAIの実装において、どのような課題が生じるのか?
本稿では、これらの課題を分析し、AIモデルの複雑さと多様なユーザニーズに対処する。
ユーザ理解とエンゲージメントを優先するHCXAIシステムを開発するための包括的なフレームワークを概説し、教育者や学生がこれらのテクノロジを効果的に利用できるようにする。
さらに、教育において教育者、開発者、政策立案者はより効果的で包括的で倫理的に責任を負うAIソリューションを作るために、どのようなステップをとれるだろうか?
本稿は、この問題に対処する目的のレコメンデーションを提供し、説明可能性の優先順位付けの必要性を強調している。
そうすることで、多様な学習者を支援する平等で魅力的な教育経験を育むために、AIの変革的なポテンシャルをどのように活用することができるのか?
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Generative AI and Its Impact on Personalized Intelligent Tutoring Systems [0.0]
生成AIは、動的コンテンツ生成、リアルタイムフィードバック、適応学習経路を通じてパーソナライズされた教育を可能にする。
報告では、自動質問生成、カスタマイズされたフィードバック機構、対話システムなどの重要な応用について検討する。
今後の方向性は、マルチモーダルAI統合の潜在的な進歩、学習システムにおける感情的知性、そしてAI駆動型教育の倫理的意味を強調する。
論文 参考訳(メタデータ) (2024-10-14T16:01:01Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Transdisciplinary AI Education: The Confluence of Curricular and
Community Needs in the Instruction of Artificial Intelligence [0.7133676002283578]
教育におけるAIの現状について検討し、この技術を教室に組み込むことによる潜在的なメリットと課題について検討する。
この論文は、サウジアラビアのネオムにある、現在開発中のAIプログラムと、開発中の新たなメガシティである教育、研究、革新のセクターについて述べる。
論文 参考訳(メタデータ) (2023-11-10T17:26:27Z) - Towards social generative AI for education: theory, practices and ethics [0.0]
教育のための社会的生成AIを構築するには、人間だけでなく互いに会話できる強力なAIシステムを開発する必要がある。
教育のための社会的生成AIを設計し、制約する方法を検討する必要がある。
論文 参考訳(メタデータ) (2023-06-14T17:30:48Z) - Assigning AI: Seven Approaches for Students, with Prompts [0.0]
本稿では,Large Language Models(LLM)の教育における転換的役割とその学習ツールとしての可能性について考察する。
AI-tutor、AI-coach、AI-mentor、AI-teammate、AI-tool、AI-simulator、AI-studentの7つのアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-13T03:36:36Z) - What Students Can Learn About Artificial Intelligence -- Recommendations
for K-12 Computing Education [0.0]
デジタルトランスフォーメーションの文脈における技術進歩は、人工知能(AI)分野における急速な発展の基礎である
AIのトピックを含むように、コンピュータサイエンスカリキュラムの数が増えている。
本稿では,デジタルリテラシーと社会的視点に対処する学習目的のカリキュラムを提案する。
論文 参考訳(メタデータ) (2023-05-10T20:39:43Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。