論文の概要: TACLA: An LLM-Based Multi-Agent Tool for Transactional Analysis Training in Education
- arxiv url: http://arxiv.org/abs/2510.17913v1
- Date: Sun, 19 Oct 2025 21:39:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.341136
- Title: TACLA: An LLM-Based Multi-Agent Tool for Transactional Analysis Training in Education
- Title(参考訳): TACLA:教育におけるトランザクション分析トレーニングのためのLLMベースのマルチエージェントツール
- Authors: Monika Zamojska, Jarosław A. Chudziak,
- Abstract要約: 本稿では,制約を克服する新しいマルチエージェントアーキテクチャであるTACLA(Transactional Analysis Contextual LLM-based Agents)を紹介する。
オーケストレーションエージェントは、コンテキストトリガとエージェントのライフスクリプトに基づいてエゴ状態のアクティベーションを優先順位付けし、心理的に認証された応答を保証する。
評価は会話の信頼性が高く、TACLAが動的で心理的な社会的シミュレーションを作成する能力を確認している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simulating nuanced human social dynamics with Large Language Models (LLMs) remains a significant challenge, particularly in achieving psychological depth and consistent persona behavior crucial for high-fidelity training tools. This paper introduces TACLA (Transactional Analysis Contextual LLM-based Agents), a novel Multi-Agent architecture designed to overcome these limitations. TACLA integrates core principles of Transactional Analysis (TA) by modeling agents as an orchestrated system of distinct Parent, Adult, and Child ego states, each with its own pattern memory. An Orchestrator Agent prioritizes ego state activation based on contextual triggers and an agent's life script, ensuring psychologically authentic responses. Validated in an educational scenario, TACLA demonstrates realistic ego state shifts in Student Agents, effectively modeling conflict de-escalation and escalation based on different teacher intervention strategies. Evaluation shows high conversational credibility and confirms TACLA's capacity to create dynamic, psychologically-grounded social simulations, advancing the development of effective AI tools for education and beyond.
- Abstract(参考訳): 大規模言語モデル(LLM)を用いたニュアンス人間の社会的ダイナミクスのシミュレーションは、特に高忠実度トレーニングツールに不可欠な心理的深度と一貫したペルソナ行動を達成する上で重要な課題である。
本稿では,これらの制約を克服するための新しいマルチエージェントアーキテクチャであるTACLA(Transactional Analysis Contextual LLM-based Agents)を紹介する。
TACLAは、トランザクション分析(TA)の中核的な原則を統合し、エージェントをそれぞれ独自のパターン記憶を持つ親、大人、子エゴ状態の組織化されたシステムとしてモデル化する。
オーケストレーションエージェントは、コンテキストトリガとエージェントのライフスクリプトに基づいてエゴ状態のアクティベーションを優先順位付けし、心理的に認証された応答を保証する。
教育シナリオで検証されたTACLAは、学生エージェントにおける現実的なエゴ状態の変化を示し、異なる教師介入戦略に基づいて、紛争のエスカレーションとエスカレーションを効果的にモデル化する。
評価は会話の信頼性が高く、TACLAがダイナミックで心理的に基盤付けられた社会シミュレーションを作成する能力を確認し、教育やそれ以上に効果的なAIツールの開発を推進している。
関連論文リスト
- Evolution in Simulation: AI-Agent School with Dual Memory for High-Fidelity Educational Dynamics [10.185612854120627]
大規模言語モデル(LLM)ベースのエージェントは、複雑な人間のシステムや相互作用をシミュレートし理解するためにますます重要になっている。
エージェントを利用して複雑な教育力学をシミュレーションする自己進化機構を中心に構築されたAI-Agent School(AAS)システムを提案する。
論文 参考訳(メタデータ) (2025-10-13T11:27:53Z) - The Landscape of Agentic Reinforcement Learning for LLMs: A Survey [104.31926740841128]
エージェント強化学習(Agentic RL)の出現は、大規模言語モデル(LLM RL)に適用された従来の強化学習からパラダイムシフトを示している。
本研究では, LLM-RLの縮退した単段階マルコフ決定過程(MDPs)と, エージェントRLを定義する部分可観測マルコフ決定過程(POMDPs)とを対比することにより, この概念シフトを定式化する。
論文 参考訳(メタデータ) (2025-09-02T17:46:26Z) - Agentic Workflow for Education: Concepts and Applications [7.875055566698523]
本研究では,自己回帰,ツールの実行,タスク計画,マルチエージェント協調からなる4成分モデルであるエージェント・フォー・教育(AWE)を紹介した。
AWEは、教師の作業量を削減し、教育の質を高め、より広範な教育革新を可能にする、有望な道を提供する。
論文 参考訳(メタデータ) (2025-09-01T14:39:48Z) - Will Pre-Training Ever End? A First Step Toward Next-Generation Foundation MLLMs via Self-Improving Systematic Cognition [89.50068130832635]
自己改善認知 (SIcog) は、マルチモーダル知識によって次世代のMLLMを構築するための自己学習フレームワークである。
ステップバイステップの視覚的理解のためのChain-of-Descriptionを提案し、詳細なマルチモーダル推論をサポートするために構造化されたChain-of-Thought(CoT)推論を統合する。
実験は、マルチモーダル認知を増強したMLLMの開発におけるSIcogの有効性を示す。
論文 参考訳(メタデータ) (2025-03-16T00:25:13Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。