論文の概要: Modeling Layered Consciousness with Multi-Agent Large Language Models
- arxiv url: http://arxiv.org/abs/2510.17844v1
- Date: Fri, 10 Oct 2025 07:08:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-26 16:57:26.502799
- Title: Modeling Layered Consciousness with Multi-Agent Large Language Models
- Title(参考訳): マルチエージェント大言語モデルによる層状意識のモデル化
- Authors: Sang Hun Kim, Jongmin Lee, Dongkyu Park, So Young Lee, Yosep Chong,
- Abstract要約: 大規模言語モデル(LLM)における人工意識のモデル化のための枠組みを提案する。
我々は,エージェントインタラクションを通じて,自覚,意識,無意識をシミュレートする。
- 参考スコア(独自算出の注目度): 9.566692471247995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a multi-agent framework for modeling artificial consciousness in large language models (LLMs), grounded in psychoanalytic theory. Our \textbf{Psychodynamic Model} simulates self-awareness, preconsciousness, and unconsciousness through agent interaction, guided by a Personalization Module combining fixed traits and dynamic needs. Using parameter-efficient fine-tuning on emotionally rich dialogues, the system was evaluated across eight personalized conditions. An LLM as a judge approach showed a 71.2\% preference for the fine-tuned model, with improved emotional depth and reduced output variance, demonstrating its potential for adaptive, personalized cognition.
- Abstract(参考訳): 本稿では,大規模言語モデル(LLM)における人工意識をモデル化するためのマルチエージェントフレームワークを提案する。
我々の『textbf{psychodynamic Model} 』は、固定された特徴と動的なニーズを組み合わせたパーソナライゼーションモジュールによって導かれるエージェント相互作用による自己認識、意識、無意識をシミュレートする。
感情に富んだ対話をパラメータ効率で微調整し、8つのパーソナライズされた条件で評価した。
判断的アプローチとしてのLLMは、微調整モデルに対する71.2\%の嗜好を示し、感情深度を改善し、出力のばらつきを低減し、適応的でパーソナライズされた認知の可能性を示した。
関連論文リスト
- Dynamic Personality Adaptation in Large Language Models via State Machines [1.6986898305640261]
本稿では,動的パーソナリティシミュレーションのためのモデルに依存しないフレームワークを提案する。
私たちのアーキテクチャの一部は,潜伏軸に沿った対話を評価する,連続的な性格評価のためのモジュールパイプラインです。
その結果、システムはユーザの入力にパーソナリティの状態を適応させるだけでなく、ユーザの行動にも影響を及ぼすことが示された。
論文 参考訳(メタデータ) (2026-02-25T18:05:11Z) - Projective Psychological Assessment of Large Multimodal Models Using Thematic Apperception Tests [5.119837168333715]
本研究では,LMM(Large Multimodal Models)の性格特性が,非言語的モダリティによって評価できるかどうかを検討する。
評価者は、TAT応答を理解し分析する優れた能力を示した。
論文 参考訳(メタデータ) (2026-02-19T06:08:33Z) - Synthetic Interaction Data for Scalable Personalization in Large Language Models [67.31884245564086]
本稿ではPersonaGymという高忠実な合成データ生成フレームワークを紹介する。
パーソナライゼーションを静的なペルソナ-参照ペアとして扱う以前の作業とは異なり、PersonaGymは動的な選好プロセスをモデル化する。
我々は,高忠実度マルチターンパーソナライズされたインタラクショントラジェクトリの大規模かつ高品質で多様な合成データセットであるPersonaAtlasをリリースする。
論文 参考訳(メタデータ) (2026-02-12T20:41:22Z) - HUMANLLM: Benchmarking and Reinforcing LLM Anthropomorphism via Human Cognitive Patterns [59.17423586203706]
本稿では,心理的パターンを因果力の相互作用として扱うフレームワークであるHUMANLLMを提案する。
12,000の学術論文から244のパターンを構築し、2-5のパターンが相互に強化、衝突、変調されるシナリオ11,359を合成する。
我々の二重レベルチェックリストは、個々のパターンの忠実度と創発的なマルチパターンのダイナミクスを評価し、強い人間のアライメントを達成する。
論文 参考訳(メタデータ) (2026-01-15T08:56:53Z) - RoleRMBench & RoleRM: Towards Reward Modeling for Profile-Based Role Play in Dialogue Systems [85.16327248973387]
継続的インシシット優先(CIP)で訓練された報酬モデルであるRoleRMを開発する。
RoleRMは、オープンソースの強力な報酬モデルとクローズドな報酬モデルを平均で24%以上超えています。
本研究は,人間中心対話システムにおける主観的アライメントの基礎となる,連続的嗜好表現とアノテーションの整合性の重要性を強調した。
論文 参考訳(メタデータ) (2025-12-11T12:04:46Z) - A Multi-Component AI Framework for Computational Psychology: From Robust Predictive Modeling to Deployed Generative Dialogue [0.0]
本稿では,孤立予測モデルと心理的分析のための対話型システムとのギャップを埋めるための包括的枠組みを提案する。
この方法論は厳格でエンドツーエンドな開発ライフサイクルを含んでいる。
主な発見は、感情コンピューティングのためのトランスフォーマーベースの回帰モデルの安定化の成功である。
論文 参考訳(メタデータ) (2025-09-16T13:33:40Z) - Towards Simulating Social Influence Dynamics with LLM-based Multi-agents [0.0]
マルチエージェントシミュレーションがオンラインフォーラムで観察される中核的な人間の社会動態を再現できるかどうかを検討する。
その結果,より小さなモデルの方が適合度が高く,推理に最適化されたモデルの方が社会的影響に強いことが示唆された。
論文 参考訳(メタデータ) (2025-07-30T08:14:40Z) - Revisiting Multi-Agent World Modeling from a Diffusion-Inspired Perspective [54.77404771454794]
拡散モデルを用いたマルチエージェント強化学習(MARL)のためのフレキシブルで堅牢な世界モデルを開発する。
本手法はDiffusion-Inspired Multi-Agent World Model (DIMA) を用いて,複数のマルチエージェント制御ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2025-05-27T09:11:38Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Aligning Vision Models with Human Aesthetics in Retrieval: Benchmarks and Algorithms [91.19304518033144]
検索システムにおける視覚モデルと人間の審美基準の整合を図る。
本研究では、視覚モデルと人間の美学をよりよく整合させるために、視覚モデルを微調整する嗜好に基づく強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T17:59:20Z) - EMR-Merging: Tuning-Free High-Performance Model Merging [55.03509900949149]
Elect, Mask & Rescale-Merging (EMR-Merging) は既存のマージ手法と比較して優れた性能を示した。
EMR-Mergingはチューニング不要なので、データアベイラビリティや追加のトレーニングは必要ありません。
論文 参考訳(メタデータ) (2024-05-23T05:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。