論文の概要: InqEduAgent: Adaptive AI Learning Partners with Gaussian Process Augmentation
- arxiv url: http://arxiv.org/abs/2508.03174v1
- Date: Tue, 05 Aug 2025 07:33:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.841074
- Title: InqEduAgent: Adaptive AI Learning Partners with Gaussian Process Augmentation
- Title(参考訳): InqEduAgent: ガウスのプロセス拡張とアダプティブAI学習パートナ
- Authors: Tian-Fang Zhao, Wen-Xi Yang,
- Abstract要約: 本稿では,探索指向学習に適した学習パートナーをシミュレートし,選択するための LLM を利用したエージェントモデルを提案する。
生成エージェントは、現実世界のシナリオにおける学習者の認知的・評価的特徴を捉えるように設計されている。
実験の結果,ほとんどの知識学習シナリオやLLM環境において,InqEduAgentの最適性能が示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collaborative partnership matters in inquiry-oriented education. However, most study partners are selected either rely on experience-based assignments with little scientific planning or build on rule-based machine assistants, encountering difficulties in knowledge expansion and inadequate flexibility. This paper proposes an LLM-empowered agent model for simulating and selecting learning partners tailored to inquiry-oriented learning, named InqEduAgent. Generative agents are designed to capture cognitive and evaluative features of learners in real-world scenarios. Then, an adaptive matching algorithm with Gaussian process augmentation is formulated to identify patterns within prior knowledge. Optimal learning-partner matches are provided for learners facing different exercises. The experimental results show the optimal performance of InqEduAgent in most knowledge-learning scenarios and LLM environment with different levels of capabilities. This study promotes the intelligent allocation of human-based learning partners and the formulation of AI-based learning partners. The code, data, and appendix are publicly available at https://github.com/InqEduAgent/InqEduAgent.
- Abstract(参考訳): 探究型教育における協調的な連携
しかし、ほとんどの研究パートナーは、科学的な計画がほとんどない経験に基づく課題に依存するか、ルールベースの機械アシスタントを構築するか、知識の拡大と柔軟性の不足に直面する。
InqEduAgent という,探索指向学習に適した学習パートナーをシミュレーションし,選択するための LLM を利用したエージェントモデルを提案する。
生成エージェントは、現実世界のシナリオにおける学習者の認知的・評価的特徴を捉えるように設計されている。
次に、ガウス過程拡張による適応マッチングアルゴリズムを定式化し、事前知識内のパターンを同定する。
エクササイズに直面する学習者に最適な学習パートナーマッチを提供する。
実験の結果,ほとんどの知識学習シナリオとLLM環境において,InqEduAgentの最適性能を示すことができた。
本研究では,人間による学習パートナーの知的な配置と,AIによる学習パートナの定式化を促進する。
コード、データ、付録はhttps://github.com/InqEduAgent/InqEduAgent.comで公開されている。
関連論文リスト
- LLM-powered Multi-agent Framework for Goal-oriented Learning in Intelligent Tutoring System [54.71619734800526]
GenMentorは、ITS内で目標指向でパーソナライズされた学習を提供するために設計されたマルチエージェントフレームワークである。
学習者の目標を、カスタムのゴール・トゥ・スキルデータセットでトレーニングされた微調整LDMを使用して、必要なスキルにマッピングする。
GenMentorは、個々の学習者のニーズに合わせて探索・描画・統合機構で学習内容を調整する。
論文 参考訳(メタデータ) (2025-01-27T03:29:44Z) - TutorLLM: Customizing Learning Recommendations with Knowledge Tracing and Retrieval-Augmented Generation [44.18659233932457]
TutorLLMは、知識追跡(KT)と検索補助生成(RAG)に基づくパーソナライズされた学習推薦システムである。
TutorLLMの斬新さは、コンテキスト固有の知識の動的検索を可能にする、KTとRAGの技法とLLMのユニークな組み合わせにある。
評価には、ユーザアセスメントのアンケートとパフォーマンス指標が含まれ、ユーザの満足度が10%向上したことを示す。
論文 参考訳(メタデータ) (2025-01-20T21:18:43Z) - Agent4Edu: Generating Learner Response Data by Generative Agents for Intelligent Education Systems [27.161576657380646]
Agent4Eduは、大規模言語モデル(LLM)による人間知能の最近の進歩を活用した、パーソナライズされた学習シミュレータである。
学習者のプロファイルは現実世界の反応データを使用し、実践スタイルと認知要因をキャプチャする。
各エージェントは、コンピュータ適応テストのようなパーソナライズされた学習アルゴリズムと対話することができる。
論文 参考訳(メタデータ) (2025-01-17T18:05:04Z) - KBAlign: Efficient Self Adaptation on Specific Knowledge Bases [73.34893326181046]
本稿では,効率的なモデル適応によりRAGシステムを強化する自己教師型フレームワークKBAlignを提案する。
私たちのキーとなる洞察は、2つの革新的なメカニズムを通じて、モデルの本質的な能力を知識の整合性に活用することです。
KBAlign は GPT-4 による適応によって得られる性能向上の90%を達成できることを示した。
論文 参考訳(メタデータ) (2024-11-22T08:21:03Z) - From Novice to Expert: LLM Agent Policy Optimization via Step-wise Reinforcement Learning [62.54484062185869]
本稿では,エージェントの強化学習プロセスの最適化にステップワイド報酬を利用するStepAgentを紹介する。
エージェント反射とポリシー調整を容易にする暗黙の逆・逆の強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T10:35:11Z) - EVOLvE: Evaluating and Optimizing LLMs For In-Context Exploration [76.66831821738927]
大規模言語モデル(LLM)は、不確実性の下で最適な意思決定を必要とするシナリオにおいて、未調査のままである。
多くのアプリケーションに関係のあるステートレス強化学習環境である,帯域幅を最適に決定できる LLM の (in) 能力の測定を行う。
最適な探索アルゴリズムの存在を動機として,このアルゴリズム知識をLLMに統合する効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-08T17:54:03Z) - ComfyBench: Benchmarking LLM-based Agents in ComfyUI for Autonomously Designing Collaborative AI Systems [80.69865295743149]
この研究は、LLMベースのエージェントを使用して、協調AIシステムを自律的に設計する試みである。
ComfyBenchをベースとしたComfyAgentは,エージェントが自律的に協調的なAIシステムを生成して設計できるようにするフレームワークである。
ComfyAgentは、o1-previewに匹敵する解像度を達成し、ComfyBenchの他のエージェントをはるかに上回っているが、ComfyAgentはクリエイティブタスクの15%しか解決していない。
論文 参考訳(メタデータ) (2024-09-02T17:44:10Z) - Decentralized and Lifelong-Adaptive Multi-Agent Collaborative Learning [57.652899266553035]
分散型および生涯適応型多エージェント協調学習は、中央サーバを使わずに複数のエージェント間のコラボレーションを強化することを目的としている。
動的協調グラフを用いた分散マルチエージェント生涯協調学習アルゴリズムであるDeLAMAを提案する。
論文 参考訳(メタデータ) (2024-03-11T09:21:11Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [56.997263135104504]
我々は,対話型模倣学習と類似するが,さらに実践的な仮定の下で,非政治強化学習によってパフォーマンスが向上できることを実証する。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - A Reinforcement Learning-assisted Genetic Programming Algorithm for Team
Formation Problem Considering Person-Job Matching [70.28786574064694]
解の質を高めるために強化学習支援遺伝的プログラミングアルゴリズム(RL-GP)を提案する。
効率的な学習を通じて得られる超ヒューリスティックなルールは、プロジェクトチームを形成する際の意思決定支援として利用することができる。
論文 参考訳(メタデータ) (2023-04-08T14:32:12Z) - Hybrid Learning for Orchestrating Deep Learning Inference in Multi-user
Edge-cloud Networks [3.7630209350186807]
ディープラーニングのためのコラボレーション型のエッジクラウドコンピューティングは、さまざまなパフォーマンスと効率を提供する。
ディープラーニング推論オーケストレーション戦略では、最適なオーケストレーションポリシを見つけるために強化学習を採用している。
我々は、最先端のRLベースの推論オーケストレーションを実験的に比較することで、HL戦略の有効性を実証する。
論文 参考訳(メタデータ) (2022-02-21T21:50:50Z) - SWAG: A Wrapper Method for Sparse Learning [0.13854111346209866]
本稿では,低データ収集とストレージコストを伴って,スパース学習者のライブラリを見つける手順を提案する。
この新しい手法は、容易に解釈できる低次元の属性ネットワークを提供する。
我々はこのアルゴリズムを "Sparse Wrapper AlGorithm" (SWAG) と呼ぶ。
論文 参考訳(メタデータ) (2020-06-23T08:53:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。