論文の概要: High-quality generation of dynamic game content via small language models: A proof of concept
- arxiv url: http://arxiv.org/abs/2601.23206v1
- Date: Fri, 30 Jan 2026 17:30:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.585689
- Title: High-quality generation of dynamic game content via small language models: A proof of concept
- Title(参考訳): 小言語モデルによる動的ゲームコンテンツの高品質生成:概念実証
- Authors: Morten I. K. Munk, Arturo Valdivia, Paolo Burelli,
- Abstract要約: 大規模言語モデル(LLM)は動的ゲームコンテンツ生成を約束するが、それらは重大な障壁に直面している。
サイズが大きいため、しばしばクラウドでアクセスされ、オフラインゲームでアプリケーションに制限される。
本稿では,意図的なスコープ化タスクを積極的に微調整することで,高品質なSLM生成を実現する戦略を提案する。
- 参考スコア(独自算出の注目度): 1.1852406625172218
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) offer promise for dynamic game content generation, but they face critical barriers, including narrative incoherence and high operational costs. Due to their large size, they are often accessed in the cloud, limiting their application in offline games. Many of these practical issues are solved by pivoting to small language models (SLMs), but existing studies using SLMs have resulted in poor output quality. We propose a strategy of achieving high-quality SLM generation through aggressive fine-tuning on deliberately scoped tasks with narrow context, constrained structure, or both. In short, more difficult tasks require narrower scope and higher specialization to the training corpus. Training data is synthetically generated via a DAG-based approach, grounding models in the specific game world. Such models can form the basis for agentic networks designed around the narratological framework at hand, representing a more practical and robust solution than cloud-dependent LLMs. To validate this approach, we present a proof-of-concept focusing on a single specialized SLM as the fundamental building block. We introduce a minimal RPG loop revolving around rhetorical battles of reputations, powered by this model. We demonstrate that a simple retry-until-success strategy reaches adequate quality (as defined by an LLM-as-a-judge scheme) with predictable latency suitable for real-time generation. While local quality assessment remains an open question, our results demonstrate feasibility for real-time generation under typical game engine constraints.
- Abstract(参考訳): 大規模言語モデル(LLM)は動的ゲームコンテンツ生成を約束するが、物語の不整合や高い運用コストを含む重要な障壁に直面している。
サイズが大きいため、しばしばクラウドでアクセスされ、オフラインゲームでアプリケーションに制限される。
これらの実践的な問題の多くは、小さな言語モデル(SLM)にピボットすることで解決されるが、既存のSLMを用いた研究は、出力品質の低下をもたらしている。
本稿では,狭いコンテキスト,制約された構造,あるいはその両方で意図的にスコープされたタスクを積極的に微調整することで,高品質なSLM生成を実現する戦略を提案する。
要するに、より困難なタスクは、より狭いスコープと、トレーニングコーパスのより高度な専門化を必要とする。
トレーニングデータは、特定のゲーム世界のグラウンドモデルであるDAGベースのアプローチによって合成的に生成される。
このようなモデルは、手元にあるナラトロジーフレームワークを中心に設計されたエージェントネットワークの基礎を形成し、クラウド依存のLLMよりも実用的で堅牢なソリューションを表現できる。
このアプローチを検証するため,本論文では,基本的な構成要素として,単一の特殊SLMに着目した概念実証を行う。
本稿では,このモデルによる評判の修辞的な戦いを軸に,最小限のRPGループを導入する。
本稿では,LLM-as-a-judgeスキームで定義されているような,簡単な再試行・再帰戦略が,リアルタイム生成に適した予測可能なレイテンシに到達できることを実証する。
局所的な品質評価は依然として未解決の課題であるが,本研究の結果は,典型的なゲームエンジン制約下でのリアルタイム生成の実現可能性を示している。
関連論文リスト
- Grounded in Reality: Learning and Deploying Proactive LLM from Offline Logs [72.08224879435762]
textttLearn-to-Askは、プロアクティブな対話エージェントの学習とデプロイのためのシミュレータフリーフレームワークである。
当社のアプローチは,LLMの大規模オンラインAIサービスへの展開を成功に導くものです。
論文 参考訳(メタデータ) (2025-10-29T12:08:07Z) - Continual Learning for VLMs: A Survey and Taxonomy Beyond Forgetting [70.83781268763215]
視覚言語モデル(VLM)は、大規模事前学習を活用することで、多様なマルチモーダルタスクにおいて優れたパフォーマンスを実現している。
VLMは、クロスモーダル機能ドリフト、共有アーキテクチャによるパラメータ干渉、ゼロショット機能侵食など、ユニークな課題に直面している。
本調査は、生涯の視覚言語システムを開発する研究者にとって、包括的かつ診断的な基準となることを目的としている。
論文 参考訳(メタデータ) (2025-08-06T09:03:10Z) - TinyAlign: Boosting Lightweight Vision-Language Models by Mitigating Modal Alignment Bottlenecks [15.308801774590597]
ビジョンと言語モデルを調整するための一般的なアプローチは、小さなコネクタモジュールをトレーニングしながら、ビジョンエンコーダと言語モデルの両方を凍結させることである。
本研究では,このアライメントのボトルネックを相互情報のレンズを通して検討する。
本稿では、メモリバンクから関連するコンテキストを戦略的に取得し、マルチモーダル入力を豊かにし、アライメントを向上する、Retrieval-Augmented Generationにインスパイアされた新しいフレームワークTinyAlignを提案する。
論文 参考訳(メタデータ) (2025-05-19T09:11:54Z) - SynerGen-VL: Towards Synergistic Image Understanding and Generation with Vision Experts and Token Folding [66.74446220401296]
画像の理解と生成の両方が可能なシンプルだが強力なエンコーダのないMLLMであるSynerGen-VLを提案する。
トークンの折り畳み機構と,高分解能画像理解を効果的に支援するビジョンエキスパートベースのプログレッシブアライメント事前学習戦略を導入する。
コードとモデルはリリースされます。
論文 参考訳(メタデータ) (2024-12-12T18:59:26Z) - Online Intrinsic Rewards for Decision Making Agents from Large Language Model Feedback [52.763620660061115]
ONIは、RLポリシーと本質的な報酬関数を同時に学習する分散アーキテクチャである。
我々は、様々な複雑さを持つ報酬モデリングのためのアルゴリズムの選択範囲を探索する。
提案手法は,NetHack Learning Environment の様々な課題にまたがって,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-10-30T13:52:43Z) - Fine-Tuning and Deploying Large Language Models Over Edges: Issues and Approaches [64.42735183056062]
大規模言語モデル(LLM)は、専門的な深層モデルから汎用的な基礎モデルへと進化してきた。
LLMは、ローカルデータセットの微調整と、ネットワークエッジ上のデプロイメントのためのかなりのメモリを必要とする。
LLMは、画像、オーディオ、ビデオ、マルチモーダルコンテンツを作成するために、テキスト生成を超えて拡張されている。
LLMの持続的成長を支援するため,モデル微調整およびモデル圧縮技術が開発されている。
論文 参考訳(メタデータ) (2024-08-20T09:42:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。