論文の概要: AgentSME for Simulating Diverse Communication Modes in Smart Education
- arxiv url: http://arxiv.org/abs/2508.03109v1
- Date: Tue, 05 Aug 2025 05:40:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.800469
- Title: AgentSME for Simulating Diverse Communication Modes in Smart Education
- Title(参考訳): スマート教育における多言語コミュニケーションのシミュレーションのためのエージェントSME
- Authors: Wen-Xi Yang, Tian-Fang Zhao,
- Abstract要約: スマート教育に適した生成エージェントモデルは非常に重要だが、まだ開発が進んでいない。
モデルでは、Solo、Mono、Echoの3つの方向通信モードが検討されている。
精度は主評価基準として採用され、推論内容の多様性を評価するために設計された3つの多様性指標によって補完される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative agent models specifically tailored for smart education are critical, yet remain relatively underdeveloped. A key challenge stems from the inherent complexity of educational contexts: learners are human beings with various cognitive behaviors, and pedagogy is fundamentally centered on personalized human-to-human communication. To address this issue, this paper proposes AgentSME, a unified generative agent framework powered by LLM. Three directional communication modes are considered in the models, namely Solo, Mono, and Echo, reflecting different types of agency autonomy and communicative reciprocity. Accuracy is adopted as the primary evaluation metric, complemented by three diversity indices designed to assess the diversity of reasoning contents. Six widely used LLMs are tested to validate the robustness of communication modes across different model tiers, which are equally divided into base-capacity and high-capacity configurations. The results show that generative agents that employ the Echo communication mode achieve the highest accuracy scores, while DeepSeek exhibits the greatest diversity. This study provides valuable information to improve agent learning capabilities and inspire smart education models.
- Abstract(参考訳): スマート教育に適した生成エージェントモデルは非常に重要だが、まだ開発が進んでいない。
学習者は様々な認知行動を持つ人間であり、教育は基本的にパーソナライズされた人間と人間のコミュニケーションに焦点を当てている。
そこで本研究では,LLMをベースとした統合生成エージェントフレームワークであるAgentSMEを提案する。
Solo、Mono、Echoの3つの方向通信モードは、様々な種類の機関の自律性とコミュニケーションの相互性を反映している。
精度は主評価基準として採用され、推論内容の多様性を評価するために設計された3つの多様性指標によって補完される。
異なるモデル層にまたがる通信モードのロバスト性を検証するために, 広く使用されている6つのLCMを, ベース容量と高容量構成に等しく分けて検証した。
その結果,Echo通信モードを用いた生成エージェントが最も精度が高く,DeepSeekの多様性が最も高いことがわかった。
本研究は,エージェント学習能力の向上とスマート教育モデルのインスピレーションに有用な情報を提供する。
関連論文リスト
- AI Mother Tongue: Self-Emergent Communication in MARL via Endogenous Symbol Systems [0.0]
エージェントが内因性記号系を持つ場合、その神経表現は自然に自発的な意味的圧縮とナッシュ平衡による意味的収束を示す。
この発見は、象徴主義と接続主義を橋渡しするための新しい道を提供する。
論文 参考訳(メタデータ) (2025-07-07T09:52:49Z) - The Traitors: Deception and Trust in Multi-Agent Language Model Simulations [0.0]
ソーシャル・デダクション・ゲームに触発されたマルチエージェント・シミュレーション・フレームワークであるThe Traitorsを紹介した。
我々は,詐欺の成功,信頼ダイナミクス,集団推論品質を計測する評価指標のスイートを開発する。
DeepSeek-V3, GPT-4o-mini, GPT-4o(モデル毎に10回の走行)による実験では, 顕著な非対称性が示された。
論文 参考訳(メタデータ) (2025-05-19T10:01:35Z) - Advances and Challenges in Foundation Agents: From Brain-Inspired Intelligence to Evolutionary, Collaborative, and Safe Systems [132.77459963706437]
この本は、モジュール化された脳に触発されたアーキテクチャの中で、インテリジェントなエージェントをフレーミングする、包括的な概要を提供する。
自己向上と適応的な進化のメカニズムを探求し、エージェントが自律的に能力を洗練する方法を探求する。
また、エージェントの相互作用、協力、社会構造から生じる集合的知性についても調べる。
論文 参考訳(メタデータ) (2025-03-31T18:00:29Z) - The Society of HiveMind: Multi-Agent Optimization of Foundation Model Swarms to Unlock the Potential of Collective Intelligence [6.322831694506287]
複数のAIファンデーションモデル間のインタラクションをオーケストレーションするフレームワークを開発する。
このフレームワークは、主に現実世界の知識を必要とするタスクに対して、無視可能なメリットを提供する。
一方、我々は、集中的な論理的推論を必要とするタスクの大幅な改善について言及する。
論文 参考訳(メタデータ) (2025-03-07T14:45:03Z) - MM-IQ: Benchmarking Human-Like Abstraction and Reasoning in Multimodal Models [5.02953506943752]
MM-IQは、視覚的推論問題4,776の大規模トレーニングセットと、8つの異なる推論パラダイムにまたがる2,710の精巧にキュレートされたテスト項目からなる総合的な評価フレームワークである。
最先端のアーキテクチャでさえ、ランダムなチャンスに対してわずかに優れたパフォーマンスしか達成できません。
近年の大規模推論モデルの増加にインスパイアされたベースラインとして,検証可能な報酬関数を用いた強化学習によってトレーニングされたマルチモーダル推論モデルもリリースした。
論文 参考訳(メタデータ) (2025-02-02T07:12:03Z) - Agent4Edu: Generating Learner Response Data by Generative Agents for Intelligent Education Systems [27.161576657380646]
Agent4Eduは、大規模言語モデル(LLM)による人間知能の最近の進歩を活用した、パーソナライズされた学習シミュレータである。
学習者のプロファイルは現実世界の反応データを使用し、実践スタイルと認知要因をキャプチャする。
各エージェントは、コンピュータ適応テストのようなパーソナライズされた学習アルゴリズムと対話することができる。
論文 参考訳(メタデータ) (2025-01-17T18:05:04Z) - The Superalignment of Superhuman Intelligence with Large Language Models [63.96120398355404]
我々は,この疑問に答えるために,学習の観点からスーパーアライメントの概念について議論する。
スーパーアライメントにおけるいくつかの重要な研究課題、すなわち、弱いから強い一般化、スケーラブルな監視、評価に焦点を当てる。
本稿では,学習者モデルの弱点を露呈しようとする敵対的クエリを生成する攻撃者,最小限の人間専門家とともに,批判モデルによって生成されたスケーラブルなフィードバックから学習することで自己を洗練させる学習者,与えられた質問応答対に対する批判や説明を生成する批判者,そして批判によって学習者を改善することを目的とした,3つのモジュールからなるスーパーアライメントの概念的枠組みを提案する。
論文 参考訳(メタデータ) (2024-12-15T10:34:06Z) - Latent-Predictive Empowerment: Measuring Empowerment without a Simulator [56.53777237504011]
我々は、より実用的な方法でエンパワーメントを計算するアルゴリズムであるLatent-Predictive Empowerment(LPE)を提案する。
LPEは、スキルと国家間の相互情報の原則的な置き換えである目的を最大化することで、大きなスキルセットを学習する。
論文 参考訳(メタデータ) (2024-10-15T00:41:18Z) - MMEvol: Empowering Multimodal Large Language Models with Evol-Instruct [148.39859547619156]
我々は,新しいマルチモーダル命令データ進化フレームワークであるMMEvolを提案する。
MMEvolは、きめ細かい知覚、認知的推論、相互作用の進化の洗練された組み合わせによって、データ品質を反復的に改善する。
提案手法は,9つのタスクにおいて,最先端モデルに比べて有意に少ない精度でSOTA(State-of-the-art)性能を実現する。
論文 参考訳(メタデータ) (2024-09-09T17:44:00Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Multimodal Prompt Learning with Missing Modalities for Sentiment Analysis and Emotion Recognition [52.522244807811894]
本稿では,欠落したモダリティの問題に対処するために,即時学習を用いた新しいマルチモーダルトランスフォーマーフレームワークを提案する。
提案手法では,生成的プロンプト,欠信号プロンプト,欠信号プロンプトの3種類のプロンプトを導入している。
迅速な学習を通じて、トレーニング可能なパラメータの数を大幅に削減する。
論文 参考訳(メタデータ) (2024-07-07T13:55:56Z) - Integration of cognitive tasks into artificial general intelligence test
for large models [54.72053150920186]
我々は、認知科学にインスパイアされた人工知能(AGI)テストの包括的な枠組みを提唱する。
認知科学に触発されたAGIテストは、結晶化インテリジェンス、流体インテリジェンス、社会インテリジェンス、エンボディドインテリジェンスを含む、すべてのインテリジェンスファセットを含んでいる。
論文 参考訳(メタデータ) (2024-02-04T15:50:42Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。