論文の概要: Fixed-Persona SLMs with Modular Memory: Scalable NPC Dialogue on Consumer Hardware
- arxiv url: http://arxiv.org/abs/2511.10277v1
- Date: Fri, 14 Nov 2025 01:42:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.791016
- Title: Fixed-Persona SLMs with Modular Memory: Scalable NPC Dialogue on Consumer Hardware
- Title(参考訳): モジュールメモリ付き固定ペルソナSLM:コンシューマハードウェア上でのスケーラブルNPC対話
- Authors: Martin Braas, Lukas Esterle,
- Abstract要約: LLM(Large Language Models)は、人間のようなテキストを生成する際、顕著な能力を示したが、コンピュータゲームにおける対話システムへの適用性はまだ限られている。
本稿では,Small Language Models (SLM) を利用したモジュール型NPC対話システムを提案する。
我々のアプローチはゲーム分野のアプリケーションに動機付けられているが、モジュラー設計とペルソナ駆動のメモリアーキテクチャは、バーチャルアシスタント、カスタマーサポートボット、インタラクティブな教育システムなど、表現力のあるスケーラブルでメモリに富んだ対話エージェントを必要とする領域で広く採用される大きな可能性を秘めている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated remarkable capabilities in generating human-like text, yet their applicability to dialogue systems in computer games remains limited. This limitation arises from their substantial hardware requirements, latency constraints, and the necessity to maintain clearly defined knowledge boundaries within a game setting. In this paper, we propose a modular NPC dialogue system that leverages Small Language Models (SLMs), fine-tuned to encode specific NPC personas and integrated with runtime-swappable memory modules. These memory modules preserve character-specific conversational context and world knowledge, enabling expressive interactions and long-term memory without retraining or model reloading during gameplay. We comprehensively evaluate our system using three open-source SLMs: DistilGPT-2, TinyLlama-1.1B-Chat, and Mistral-7B-Instruct, trained on synthetic persona-aligned data and benchmarked on consumer-grade hardware. While our approach is motivated by applications in gaming, its modular design and persona-driven memory architecture hold significant potential for broader adoption in domains requiring expressive, scalable, and memory-rich conversational agents, such as virtual assistants, customer support bots, or interactive educational systems.
- Abstract(参考訳): LLM(Large Language Models)は、人間のようなテキストを生成する際、顕著な能力を示したが、コンピュータゲームにおける対話システムへの適用性はまだ限られている。
この制限は、ハードウェアの相当な要件、レイテンシの制約、ゲーム設定内で明確に定義された知識境界を維持する必要性から生じる。
本稿では,Small Language Models (SLM) を利用したモジュール型NPC対話システムを提案する。
これらのメモリモジュールは、キャラクター固有の会話コンテキストと世界知識を保持し、ゲームプレイ中に再トレーニングやモデル再ロードをすることなく、表現的な相互作用と長期記憶を可能にする。
DistilGPT-2, TinyLlama-1.1B-Chat, Mistral-7B-Instructの3つのオープンソースSLMを総合的に評価した。
我々のアプローチはゲーム分野のアプリケーションに動機付けられているが、モジュラー設計とペルソナ駆動のメモリアーキテクチャは、バーチャルアシスタント、カスタマーサポートボット、インタラクティブな教育システムなど、表現力のあるスケーラブルでメモリに富んだ対話エージェントを必要とする領域で広く採用される大きな可能性を秘めている。
関連論文リスト
- The AI Hippocampus: How Far are We From Human Memory? [77.04745635827278]
インプリシットメモリは、事前訓練されたトランスフォーマーの内部パラメータに埋め込まれた知識を指す。
明示メモリは、動的でクエリ可能な知識表現でモデル出力を増大させるように設計された外部ストレージと検索コンポーネントを含んでいる。
エージェントメモリは、自律エージェント内に永続的、時間的に拡張されたメモリ構造を導入する。
論文 参考訳(メタデータ) (2026-01-14T03:24:08Z) - EvolMem: A Cognitive-Driven Benchmark for Multi-Session Dialogue Memory [63.84216832544323]
EvolMemは、大規模言語モデル(LLM)とエージェントシステムのマルチセッションメモリ機能を評価するための新しいベンチマークである。
このベンチマークを構築するために,話題から始まる生成と物語から着想を得た変換からなるハイブリッドデータ合成フレームワークを提案する。
広範囲な評価により、LLMが全てのメモリ次元で常に他よりも優れていることが分かる。
論文 参考訳(メタデータ) (2026-01-07T03:14:42Z) - Memoria: A Scalable Agentic Memory Framework for Personalized Conversational AI [0.6840655769002751]
エージェントメモリは大規模言語モデル(LLM)のキーイネーブラーとして登場しつつある
我々は,LLMベースの会話システムを永続的,解釈可能,コンテキストに富んだメモリで拡張するモジュール型メモリフレームワークであるMemoriaを紹介する。
我々は、ステートレスLLMインタフェースとエージェントメモリシステムとのギャップを埋めることで、Memoriaがスケーラブルでパーソナライズされた対話型人工知能(AI)を実現する方法を実証する。
論文 参考訳(メタデータ) (2025-12-14T13:38:06Z) - MemLoRA: Distilling Expert Adapters for On-Device Memory Systems [71.32550994522738]
メモリ拡張大言語モデル(LLM)は対話中に顕著な一貫性を示す。
MemLoRAは、小さなVision-Language Modelを統合する新しいメモリシステムである。
VLM統合MemLoRA-Vはキャプションベースのアプローチで大幅に改善されている。
論文 参考訳(メタデータ) (2025-12-04T12:56:30Z) - MMAG: Mixed Memory-Augmented Generation for Large Language Models Applications [0.0]
大きな言語モデル(LLM)は、単一のプロンプト内でコヒーレントなテキストを生成するのに優れるが、関連性、パーソナライゼーション、拡張された相互作用間の連続性を維持するには不十分である。
本稿では, LLM エージェントのメモリを 5 つの相互作用層に整理する MMAG パターンを提案する。
我々は,Heeroの会話エージェントの実装を通じて,そのアプローチを実証する。
論文 参考訳(メタデータ) (2025-12-01T14:16:57Z) - MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - Hello Again! LLM-powered Personalized Agent for Long-term Dialogue [63.65128176360345]
モデルに依存しない長期対話エージェント(LD-Agent)を導入する。
イベント認識、ペルソナ抽出、応答生成のための3つの独立した調整可能なモジュールが組み込まれている。
LD-Agentの有効性, 汎用性, クロスドメイン性について実験的に検証した。
論文 参考訳(メタデータ) (2024-06-09T21:58:32Z) - MemoryBank: Enhancing Large Language Models with Long-Term Memory [7.654404043517219]
本稿では,大規模言語モデルに適した新しいメモリ機構であるMemoryBankを提案する。
MemoryBankは、モデルが関連するメモリを呼び出し、継続的なメモリ更新を通じて継続的に進化し、過去のインタラクションから情報を合成することで、ユーザの個性に適応することを可能にする。
論文 参考訳(メタデータ) (2023-05-17T14:40:29Z) - SCM: Enhancing Large Language Model with Self-Controlled Memory Framework [54.33686574304374]
大きな言語モデル(LLM)は、長い入力を処理できないため、重要な歴史的情報が失われる。
本稿では,LLMが長期記憶を維持し,関連する情報をリコールする能力を高めるための自己制御メモリ(SCM)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-26T07:25:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。