論文の概要: A Human-Centric Approach to Explainable AI for Personalized Education
- arxiv url: http://arxiv.org/abs/2505.22541v1
- Date: Wed, 28 May 2025 16:23:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.727926
- Title: A Human-Centric Approach to Explainable AI for Personalized Education
- Title(参考訳): パーソナライズされた教育のための説明可能なAIへの人間中心的アプローチ
- Authors: Vinitra Swamy,
- Abstract要約: この論文は、eXplainable AI(XAI)研究の最前線に人間のニーズをもたらすことを目的としている。
マルチモーダルモジュラーアーキテクチャによる解釈可能性に関する4つの新しい技術貢献を提案する。
我々の研究は、最先端のパフォーマンスとビルトインの透明性と信頼のバランスをとる、人間中心のAIシステムの基礎を築いた。
- 参考スコア(独自算出の注目度): 1.0878040851638
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks form the backbone of artificial intelligence research, with potential to transform the human experience in areas ranging from autonomous driving to personal assistants, healthcare to education. However, their integration into the daily routines of real-world classrooms remains limited. It is not yet common for a teacher to assign students individualized homework targeting their specific weaknesses, provide students with instant feedback, or simulate student responses to a new exam question. While these models excel in predictive performance, this lack of adoption can be attributed to a significant weakness: the lack of explainability of model decisions, leading to a lack of trust from students, parents, and teachers. This thesis aims to bring human needs to the forefront of eXplainable AI (XAI) research, grounded in the concrete use case of personalized learning and teaching. We frame the contributions along two verticals: technical advances in XAI and their aligned human studies. We investigate explainability in AI for education, revealing systematic disagreements between post-hoc explainers and identifying a need for inherently interpretable model architectures. We propose four novel technical contributions in interpretability with a multimodal modular architecture (MultiModN), an interpretable mixture-of-experts model (InterpretCC), adversarial training for explainer stability, and a theory-driven LLM-XAI framework to present explanations to students (iLLuMinaTE), which we evaluate in diverse settings with professors, teachers, learning scientists, and university students. By combining empirical evaluations of existing explainers with novel architectural designs and human studies, our work lays a foundation for human-centric AI systems that balance state-of-the-art performance with built-in transparency and trust.
- Abstract(参考訳): ディープニューラルネットワークは人工知能研究のバックボーンを形成し、自動運転からパーソナルアシスタント、ヘルスケア、教育に至るまで、人間の体験を変革する可能性がある。
しかし、実際の教室の日課への統合は依然として限られている。
教師が特定の弱点をターゲットにした個別の宿題を割り当てたり、学生に即座にフィードバックを与えたり、新しい試験問題に対する生徒の反応をシミュレートしたりすることは、まだ一般的ではない。
これらのモデルは予測性能に優れていますが、この採用の欠如は、モデル決定の説明可能性の欠如、学生、親、教師の信頼の欠如など、重大な弱点に起因しています。
この論文は、パーソナライズされた学習と教育の具体的なユースケースに基づいて、eXplainable AI(XAI)研究の最前線に人間のニーズをもたらすことを目的としている。
我々は、XAIの技術的進歩と、それに沿った人間の研究の2つの分野における貢献の枠組みを定めている。
教育用AIにおける説明可能性について検討し、ポストホックな説明者間の体系的な不一致を明らかにし、本質的に解釈可能なモデルアーキテクチャの必要性を特定する。
マルチモーダル・モジュラーアーキテクチャ(MultiModN)、解釈可能なミックス・オブ・エキスパート・モデル(InterpretCC)、説明者安定性のための敵対的トレーニング、および理論駆動型LLM-XAIフレームワークを用いて学生(iLLuMinaTE)に説明を提示し、教授、教師、学習科学者、大学生との多様な設定で評価する。
既存の説明者の実証的な評価と、新しい建築設計と人間の研究を組み合わせることで、私たちの研究は、最先端のパフォーマンスと、ビルトインの透明性と信頼のバランスをとる、人間中心のAIシステムの基礎を築いた。
関連論文リスト
- A Computational Model of Inclusive Pedagogy: From Understanding to Application [1.2058600649065616]
人間の教育は単なる知識伝達を超越し、共適応力学に依存している。
中心性にもかかわらず、共適応型教師-学生相互作用(T-SI)の計算モデルは未開発のままである。
本稿では,人間教育の文脈的洞察をテスト可能なフレームワークに統合する計算的T-SIモデルを提案する。
論文 参考訳(メタデータ) (2025-05-02T12:26:31Z) - Resurrecting Socrates in the Age of AI: A Study Protocol for Evaluating a Socratic Tutor to Support Research Question Development in Higher Education [0.0]
このプロトコルは、新しいAIベースのソクラティックチューターを評価するための構成主義的学習理論に基づく研究を定めている。
教師は、システム2の思考を促進するために、反復的で反射的な質問を通じて学生を巻き込みます。
この研究は、人間の認知を置き換えるのではなく、人工的なAIをどのように支援に適応させるかを理解することを目的としている。
論文 参考訳(メタデータ) (2025-04-05T00:49:20Z) - Form-Substance Discrimination: Concept, Cognition, and Pedagogy [55.2480439325792]
本稿では,高等教育におけるカリキュラム開発に欠かせない学習成果として,フォーム・サブスタンス・差別について検討する。
本稿では,カリキュラム設計,評価実践,明示的な指導を通じて,この能力を育成するための実践的戦略を提案する。
論文 参考訳(メタデータ) (2025-04-01T04:15:56Z) - The Imitation Game for Educational AI [23.71250100390303]
本稿では,2相チューリング様試験に基づく新しい評価フレームワークを提案する。
フェーズ1では、学生は質問に対するオープンな回答を提供し、自然な誤解を明らかにします。
フェーズ2では、AIと人間の専門家の両方が、各学生の特定のミスを条件に、新しい関連する質問に気を散らす。
論文 参考訳(メタデータ) (2025-02-21T01:14:55Z) - Education in the Era of Neurosymbolic AI [0.6468510459310326]
我々は,ハイブリッドNAIアーキテクチャの重要な構成要素として,教育エージェントの独特な余裕を生かしたシステムを提案する。
我々は,NAI時代の教育によって,学習がよりアクセスしやすく,公平で,現実世界のスキルに適合するものになると結論づける。
論文 参考訳(メタデータ) (2024-11-16T19:18:39Z) - When LLMs Learn to be Students: The SOEI Framework for Modeling and Evaluating Virtual Student Agents in Educational Interaction [12.070907646464537]
教室シナリオにおける人格対応型仮想学生エージェント(LVSA)の構築と評価のためのSOEIフレームワークを提案する。
LoRAファインチューニングとエキスパートインフォームドプロンプト設計により,5つのLVSAをBig Five特性に基づいて生成する。
その結果,(1)LLMをベースとした学生エージェントのための教育的,心理的に基盤とした生成パイプライン,(2)行動リアリズムのためのハイブリッドでスケーラブルな評価フレームワーク,(3)LVSAsの教育的有用性に関する実証的な知見が得られた。
論文 参考訳(メタデータ) (2024-10-21T07:18:24Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z) - Personalized Education in the AI Era: What to Expect Next? [76.37000521334585]
パーソナライズ学習の目的は、学習者の強みに合致する効果的な知識獲得トラックをデザインし、目標を達成するために弱みをバイパスすることである。
近年、人工知能(AI)と機械学習(ML)の隆盛は、パーソナライズされた教育を強化するための新しい視点を広げています。
論文 参考訳(メタデータ) (2021-01-19T12:23:32Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。