論文の概要: TACLA: An LLM-Based Multi-Agent Tool for Transactional Analysis Training in Education
- arxiv url: http://arxiv.org/abs/2510.17913v1
- Date: Sun, 19 Oct 2025 21:39:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.341136
- Title: TACLA: An LLM-Based Multi-Agent Tool for Transactional Analysis Training in Education
- Title(参考訳): TACLA:教育におけるトランザクション分析トレーニングのためのLLMベースのマルチエージェントツール
- Authors: Monika Zamojska, Jarosław A. Chudziak,
- Abstract要約: 本稿では,制約を克服する新しいマルチエージェントアーキテクチャであるTACLA(Transactional Analysis Contextual LLM-based Agents)を紹介する。
オーケストレーションエージェントは、コンテキストトリガとエージェントのライフスクリプトに基づいてエゴ状態のアクティベーションを優先順位付けし、心理的に認証された応答を保証する。
評価は会話の信頼性が高く、TACLAが動的で心理的な社会的シミュレーションを作成する能力を確認している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simulating nuanced human social dynamics with Large Language Models (LLMs) remains a significant challenge, particularly in achieving psychological depth and consistent persona behavior crucial for high-fidelity training tools. This paper introduces TACLA (Transactional Analysis Contextual LLM-based Agents), a novel Multi-Agent architecture designed to overcome these limitations. TACLA integrates core principles of Transactional Analysis (TA) by modeling agents as an orchestrated system of distinct Parent, Adult, and Child ego states, each with its own pattern memory. An Orchestrator Agent prioritizes ego state activation based on contextual triggers and an agent's life script, ensuring psychologically authentic responses. Validated in an educational scenario, TACLA demonstrates realistic ego state shifts in Student Agents, effectively modeling conflict de-escalation and escalation based on different teacher intervention strategies. Evaluation shows high conversational credibility and confirms TACLA's capacity to create dynamic, psychologically-grounded social simulations, advancing the development of effective AI tools for education and beyond.
- Abstract(参考訳): 大規模言語モデル(LLM)を用いたニュアンス人間の社会的ダイナミクスのシミュレーションは、特に高忠実度トレーニングツールに不可欠な心理的深度と一貫したペルソナ行動を達成する上で重要な課題である。
本稿では,これらの制約を克服するための新しいマルチエージェントアーキテクチャであるTACLA(Transactional Analysis Contextual LLM-based Agents)を紹介する。
TACLAは、トランザクション分析(TA)の中核的な原則を統合し、エージェントをそれぞれ独自のパターン記憶を持つ親、大人、子エゴ状態の組織化されたシステムとしてモデル化する。
オーケストレーションエージェントは、コンテキストトリガとエージェントのライフスクリプトに基づいてエゴ状態のアクティベーションを優先順位付けし、心理的に認証された応答を保証する。
教育シナリオで検証されたTACLAは、学生エージェントにおける現実的なエゴ状態の変化を示し、異なる教師介入戦略に基づいて、紛争のエスカレーションとエスカレーションを効果的にモデル化する。
評価は会話の信頼性が高く、TACLAがダイナミックで心理的に基盤付けられた社会シミュレーションを作成する能力を確認し、教育やそれ以上に効果的なAIツールの開発を推進している。
関連論文リスト
- Agentic Reasoning for Large Language Models [122.81018455095999]
推論は推論、問題解決、意思決定の基礎となる基本的な認知プロセスである。
大規模言語モデル(LLM)は、クローズドワールド設定では強力な推論能力を示すが、オープンエンドおよび動的環境では苦労する。
エージェント推論は、連続的な相互作用を計画し、行動し、学習する自律的なエージェントとしてLLMを解釈することでパラダイムシフトを示す。
論文 参考訳(メタデータ) (2026-01-18T18:58:23Z) - Learning to Make Friends: Coaching LLM Agents toward Emergent Social Ties [3.1146704506932985]
大規模言語モデル(LLM)エージェントは、人間のオンライン行動を特徴づける複雑な社会的ダイナミクスを再現する。
エージェントが繰り返し対話し、相互に評価し、文脈内学習を通じてそれらの振る舞いを適応するマルチエージェントLLMシミュレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-22T07:00:33Z) - Evolution in Simulation: AI-Agent School with Dual Memory for High-Fidelity Educational Dynamics [10.185612854120627]
大規模言語モデル(LLM)ベースのエージェントは、複雑な人間のシステムや相互作用をシミュレートし理解するためにますます重要になっている。
エージェントを利用して複雑な教育力学をシミュレーションする自己進化機構を中心に構築されたAI-Agent School(AAS)システムを提案する。
論文 参考訳(メタデータ) (2025-10-13T11:27:53Z) - A Survey on Agentic Multimodal Large Language Models [84.18778056010629]
エージェントマルチモーダル大言語モデル(Agentic MLLMs)に関する総合的な調査を行う。
我々は,エージェントMLLMの新たなパラダイムを探求し,その概念的基盤を明確にし,従来のMLLMエージェントとの特徴を区別する。
コミュニティのためのこの分野の研究をさらに加速するため、エージェントMLLMを開発するためのオープンソースのトレーニングフレームワーク、トレーニングおよび評価データセットをコンパイルする。
論文 参考訳(メタデータ) (2025-10-13T04:07:01Z) - The Landscape of Agentic Reinforcement Learning for LLMs: A Survey [104.31926740841128]
エージェント強化学習(Agentic RL)の出現は、大規模言語モデル(LLM RL)に適用された従来の強化学習からパラダイムシフトを示している。
本研究では, LLM-RLの縮退した単段階マルコフ決定過程(MDPs)と, エージェントRLを定義する部分可観測マルコフ決定過程(POMDPs)とを対比することにより, この概念シフトを定式化する。
論文 参考訳(メタデータ) (2025-09-02T17:46:26Z) - Agentic Workflow for Education: Concepts and Applications [7.875055566698523]
本研究では,自己回帰,ツールの実行,タスク計画,マルチエージェント協調からなる4成分モデルであるエージェント・フォー・教育(AWE)を紹介した。
AWEは、教師の作業量を削減し、教育の質を高め、より広範な教育革新を可能にする、有望な道を提供する。
論文 参考訳(メタデータ) (2025-09-01T14:39:48Z) - Empowering Economic Simulation for Massively Multiplayer Online Games through Generative Agent-Based Modeling [53.26311872828166]
我々は,MMO経済シミュレーションにおいて,Large Language Models (LLMs) を用いた新しいアプローチを導入するための予備的なステップを採っている。
我々は人間のような意思決定と適応性を備えたLSM駆動型エージェントを設計する。
これらのエージェントはロールプレイング、知覚、記憶、推論の能力を備え、上記の課題を効果的に解決する。
論文 参考訳(メタデータ) (2025-06-05T07:21:13Z) - The Influence of Human-inspired Agentic Sophistication in LLM-driven Strategic Reasoners [1.9417191498842046]
人工推論器の性能形成におけるエージェント的高度化の役割を評価する。
我々は3つのエージェント設計をベンチマークした: 単純なゲーム理論モデル、構造化されていないLLM-as-agentモデル、従来のエージェントフレームワークに統合されたLLM。
我々の分析は、25のエージェント構成にまたがる2000以上の推論サンプルを網羅し、人間にインスパイアされた認知構造が、LLMエージェントと人間の戦略的行動との整合性を高めることを示唆している。
論文 参考訳(メタデータ) (2025-05-14T13:51:24Z) - Will Pre-Training Ever End? A First Step Toward Next-Generation Foundation MLLMs via Self-Improving Systematic Cognition [89.50068130832635]
自己改善認知 (SIcog) は、マルチモーダル知識によって次世代のMLLMを構築するための自己学習フレームワークである。
ステップバイステップの視覚的理解のためのChain-of-Descriptionを提案し、詳細なマルチモーダル推論をサポートするために構造化されたChain-of-Thought(CoT)推論を統合する。
実験は、マルチモーダル認知を増強したMLLMの開発におけるSIcogの有効性を示す。
論文 参考訳(メタデータ) (2025-03-16T00:25:13Z) - ReMA: Learning to Meta-think for LLMs with Multi-Agent Reinforcement Learning [53.817538122688944]
Reinforced Meta-thinking Agents (ReMA) を導入し,Large Language Models (LLMs) の推論からメタ思考行動を求める。
ReMAは、推論プロセスを2つの階層的なエージェントに分解する。戦略上の監視と計画を生成するハイレベルなメタ思考エージェントと、詳細な実行のための低レベルな推論エージェントである。
単ターン実験による実験結果から、ReMAは複雑な推論タスクにおいて単エージェントRLベースラインよりも優れることが示された。
論文 参考訳(メタデータ) (2025-03-12T16:05:31Z) - When LLMs Learn to be Students: The SOEI Framework for Modeling and Evaluating Virtual Student Agents in Educational Interaction [12.070907646464537]
教室シナリオにおける人格対応型仮想学生エージェント(LVSA)の構築と評価のためのSOEIフレームワークを提案する。
LoRAファインチューニングとエキスパートインフォームドプロンプト設計により,5つのLVSAをBig Five特性に基づいて生成する。
その結果,(1)LLMをベースとした学生エージェントのための教育的,心理的に基盤とした生成パイプライン,(2)行動リアリズムのためのハイブリッドでスケーラブルな評価フレームワーク,(3)LVSAsの教育的有用性に関する実証的な知見が得られた。
論文 参考訳(メタデータ) (2024-10-21T07:18:24Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。