論文の概要: Fixed-Persona SLMs with Modular Memory: Scalable NPC Dialogue on Consumer Hardware
- arxiv url: http://arxiv.org/abs/2511.10277v1
- Date: Fri, 14 Nov 2025 01:42:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.791016
- Title: Fixed-Persona SLMs with Modular Memory: Scalable NPC Dialogue on Consumer Hardware
- Title(参考訳): モジュールメモリ付き固定ペルソナSLM:コンシューマハードウェア上でのスケーラブルNPC対話
- Authors: Martin Braas, Lukas Esterle,
- Abstract要約: LLM(Large Language Models)は、人間のようなテキストを生成する際、顕著な能力を示したが、コンピュータゲームにおける対話システムへの適用性はまだ限られている。
本稿では,Small Language Models (SLM) を利用したモジュール型NPC対話システムを提案する。
我々のアプローチはゲーム分野のアプリケーションに動機付けられているが、モジュラー設計とペルソナ駆動のメモリアーキテクチャは、バーチャルアシスタント、カスタマーサポートボット、インタラクティブな教育システムなど、表現力のあるスケーラブルでメモリに富んだ対話エージェントを必要とする領域で広く採用される大きな可能性を秘めている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated remarkable capabilities in generating human-like text, yet their applicability to dialogue systems in computer games remains limited. This limitation arises from their substantial hardware requirements, latency constraints, and the necessity to maintain clearly defined knowledge boundaries within a game setting. In this paper, we propose a modular NPC dialogue system that leverages Small Language Models (SLMs), fine-tuned to encode specific NPC personas and integrated with runtime-swappable memory modules. These memory modules preserve character-specific conversational context and world knowledge, enabling expressive interactions and long-term memory without retraining or model reloading during gameplay. We comprehensively evaluate our system using three open-source SLMs: DistilGPT-2, TinyLlama-1.1B-Chat, and Mistral-7B-Instruct, trained on synthetic persona-aligned data and benchmarked on consumer-grade hardware. While our approach is motivated by applications in gaming, its modular design and persona-driven memory architecture hold significant potential for broader adoption in domains requiring expressive, scalable, and memory-rich conversational agents, such as virtual assistants, customer support bots, or interactive educational systems.
- Abstract(参考訳): LLM(Large Language Models)は、人間のようなテキストを生成する際、顕著な能力を示したが、コンピュータゲームにおける対話システムへの適用性はまだ限られている。
この制限は、ハードウェアの相当な要件、レイテンシの制約、ゲーム設定内で明確に定義された知識境界を維持する必要性から生じる。
本稿では,Small Language Models (SLM) を利用したモジュール型NPC対話システムを提案する。
これらのメモリモジュールは、キャラクター固有の会話コンテキストと世界知識を保持し、ゲームプレイ中に再トレーニングやモデル再ロードをすることなく、表現的な相互作用と長期記憶を可能にする。
DistilGPT-2, TinyLlama-1.1B-Chat, Mistral-7B-Instructの3つのオープンソースSLMを総合的に評価した。
我々のアプローチはゲーム分野のアプリケーションに動機付けられているが、モジュラー設計とペルソナ駆動のメモリアーキテクチャは、バーチャルアシスタント、カスタマーサポートボット、インタラクティブな教育システムなど、表現力のあるスケーラブルでメモリに富んだ対話エージェントを必要とする領域で広く採用される大きな可能性を秘めている。
関連論文リスト
- MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - Hello Again! LLM-powered Personalized Agent for Long-term Dialogue [63.65128176360345]
モデルに依存しない長期対話エージェント(LD-Agent)を導入する。
イベント認識、ペルソナ抽出、応答生成のための3つの独立した調整可能なモジュールが組み込まれている。
LD-Agentの有効性, 汎用性, クロスドメイン性について実験的に検証した。
論文 参考訳(メタデータ) (2024-06-09T21:58:32Z) - MemoryBank: Enhancing Large Language Models with Long-Term Memory [7.654404043517219]
本稿では,大規模言語モデルに適した新しいメモリ機構であるMemoryBankを提案する。
MemoryBankは、モデルが関連するメモリを呼び出し、継続的なメモリ更新を通じて継続的に進化し、過去のインタラクションから情報を合成することで、ユーザの個性に適応することを可能にする。
論文 参考訳(メタデータ) (2023-05-17T14:40:29Z) - SCM: Enhancing Large Language Model with Self-Controlled Memory Framework [54.33686574304374]
大きな言語モデル(LLM)は、長い入力を処理できないため、重要な歴史的情報が失われる。
本稿では,LLMが長期記憶を維持し,関連する情報をリコールする能力を高めるための自己制御メモリ(SCM)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-26T07:25:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。