論文の概要: IPCGRL: Language-Instructed Reinforcement Learning for Procedural Level Generation
- arxiv url: http://arxiv.org/abs/2503.12358v3
- Date: Tue, 25 Mar 2025 01:48:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:52:53.789219
- Title: IPCGRL: Language-Instructed Reinforcement Learning for Procedural Level Generation
- Title(参考訳): IPCGRL:手続きレベルの生成のための言語指導型強化学習
- Authors: In-Chang Baek, Sung-Hyun Kim, Seo-Young Lee, Dong-Hyeon Kim, Kyung-Joong Kim,
- Abstract要約: IPCGRLは、強化学習による指示に基づく手続き的コンテンツ生成手法である。
IPCGRL ゲームレベル条件を効果的に圧縮するためのタスク固有の埋め込み表現。
- 参考スコア(独自算出の注目度): 11.71881275085903
- License:
- Abstract: Recent research has highlighted the significance of natural language in enhancing the controllability of generative models. While various efforts have been made to leverage natural language for content generation, research on deep reinforcement learning (DRL) agents utilizing text-based instructions for procedural content generation remains limited. In this paper, we propose IPCGRL, an instruction-based procedural content generation method via reinforcement learning, which incorporates a sentence embedding model. IPCGRL fine-tunes task-specific embedding representations to effectively compress game-level conditions. We evaluate IPCGRL in a two-dimensional level generation task and compare its performance with a general-purpose embedding method. The results indicate that IPCGRL achieves up to a 21.4% improvement in controllability and a 17.2% improvement in generalizability for unseen instructions. Furthermore, the proposed method extends the modality of conditional input, enabling a more flexible and expressive interaction framework for procedural content generation.
- Abstract(参考訳): 近年の研究では、生成モデルの制御性を高めることにおける自然言語の重要性が強調されている。
自然言語をコンテンツ生成に活用するための様々な取り組みがなされてきたが、手続き的コンテンツ生成のためのテキストベースの指示を利用した深層強化学習(DRL)エージェントの研究は依然として限られている。
本稿では,文埋め込みモデルを組み込んだ強化学習による命令ベースの手続き型コンテンツ生成手法である IPCGRL を提案する。
IPCGRL ゲームレベル条件を効果的に圧縮するためのタスク固有の埋め込み表現。
IPCGRLを二次元レベル生成タスクで評価し,その性能を汎用的な埋め込み法と比較した。
その結果、ICCGRLは21.4%の制御性向上と17.2%の汎用性向上を実現していることがわかった。
さらに,提案手法は条件付き入力のモダリティを拡張し,プロシージャコンテンツ生成のためのより柔軟で表現力豊かなインタラクションフレームワークを実現する。
関連論文リスト
- Process-Supervised Reinforcement Learning for Code Generation [21.85925512674604]
結果管理に基づく既存の強化学習戦略は,コード生成のための大規模言語モデルの性能向上に有効であることが証明されている。
本稿では,複雑なコード生成タスクに対処するためのプロセス教師付き強化学習戦略を提案する。
本研究では,プロセス指導強化学習が,結果管理のみに依存する手法をはるかに上回っていることを示す。
論文 参考訳(メタデータ) (2025-02-03T16:22:06Z) - Leveraging Large Language Models to Generate Course-specific Semantically Annotated Learning Objects [2.1845291030915974]
生成自然言語モデルの最近の進歩は、教育コンテンツの生成に新たな可能性をもたらしている。
本稿では,自動学習者モデル更新に十分な注釈を付けたコンピュータサイエンス質問を生成するための,大規模言語モデルの可能性について検討する。
論文 参考訳(メタデータ) (2024-12-05T14:24:07Z) - Reinforcement Learning with Token-level Feedback for Controllable Text Generation [16.117006822479407]
token-Level rewards for controllable text generationを定式化するTOLEという新しい強化学習アルゴリズムを提案する。
実験結果から,本アルゴリズムは単一属性と複数属性の制御タスクにおいて,優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2024-03-18T08:18:37Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - From Classification to Generation: Insights into Crosslingual Retrieval
Augmented ICL [8.065775937617417]
クロスランガル検索強化インコンテキスト学習(CREA-ICL)を利用した新しい手法を提案する。
高ソース言語から意味論的に類似したプロンプトを抽出することにより、多言語事前学習言語モデル(MPLM)のゼロショット性能の向上を目指す。
我々の手法は分類タスクを着実に改善するが、生成タスクでは課題に直面している。
論文 参考訳(メタデータ) (2023-11-11T15:40:21Z) - Learning to Solve Voxel Building Embodied Tasks from Pixels and Natural
Language Instructions [53.21504989297547]
本研究では,Minecraftのような環境下でのオブジェクト構築作業において,言語モデルと強化学習を組み合わせた新しい手法を提案する。
提案手法は,まず命令から一貫した達成可能なサブゴールのセットを生成し,学習済みのRLポリシーで関連するサブタスクを完了させる。
論文 参考訳(メタデータ) (2022-11-01T18:30:42Z) - SDA: Improving Text Generation with Self Data Augmentation [88.24594090105899]
自動データ拡張のための自己模倣学習フェーズを組み込むことにより,標準最大確率推定(MLE)パラダイムを改善することを提案する。
既存の文レベルの拡張戦略とは異なり,本手法はより汎用的で,任意のMLEベースの訓練手順に容易に適応できる。
論文 参考訳(メタデータ) (2021-01-02T01:15:57Z) - Unsupervised Text Generation by Learning from Search [86.51619839836331]
TGLSは、教師なしテキスト生成のための新しいフレームワークである。
実世界の自然言語生成タスクであるパラフレーズ生成とテキストの形式化におけるTGLSの有効性を示す。
論文 参考訳(メタデータ) (2020-07-09T04:34:48Z) - A Hybrid Natural Language Generation System Integrating Rules and Deep
Learning Algorithms [13.288402527470591]
本稿では,ルールベースアプローチと最新のディープラーニングアルゴリズムの両方の利点を組み合わせた,強化された自然言語生成システムを提案する。
また,自然言語処理の性能を包括的かつ正確に測定するために,HMCUと呼ばれる新しい手法を考案した。
論文 参考訳(メタデータ) (2020-06-15T00:50:41Z) - Stylistic Dialogue Generation via Information-Guided Reinforcement
Learning Strategy [65.98002918470544]
情報指導強化学習(IG-RL)と呼ばれる新しい学習戦略を導入する。
IG-RLでは、コンテンツ品質の維持を制約しながら、スタイル表現を探索するトレーニングモデルが推奨されている。
これは,品質保存探索のための統計的スタイル情報ガイダンスを用いた強化学習戦略を採用することで達成される。
論文 参考訳(メタデータ) (2020-04-05T13:58:14Z) - Tree-Structured Policy based Progressive Reinforcement Learning for
Temporally Language Grounding in Video [128.08590291947544]
非トリミングビデオにおける一時的言語接地は、ビデオ理解における新たな課題である。
ヒトの粗大な意思決定パラダイムにインスパイアされた我々は、新しい木構造政策に基づくプログレッシブ強化学習フレームワークを定式化した。
論文 参考訳(メタデータ) (2020-01-18T15:08:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。