論文の概要: Word2World: Generating Stories and Worlds through Large Language Models
- arxiv url: http://arxiv.org/abs/2405.06686v1
- Date: Mon, 6 May 2024 14:21:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-19 13:49:26.432450
- Title: Word2World: Generating Stories and Worlds through Large Language Models
- Title(参考訳): Word2World: 大きな言語モデルによるストーリーと世界の生成
- Authors: Muhammad U. Nasir, Steven James, Julian Togelius,
- Abstract要約: 大規模言語モデル(LLM)は様々な分野にまたがってその価値を証明している。
この研究は、LLMがストーリーを通してプレイ可能なゲームを手続き的に設計できるシステムであるWord2Worldを紹介した。
- 参考スコア(独自算出の注目度): 5.80330969550483
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Large Language Models (LLMs) have proven their worth across a diverse spectrum of disciplines. LLMs have shown great potential in Procedural Content Generation (PCG) as well, but directly generating a level through a pre-trained LLM is still challenging. This work introduces Word2World, a system that enables LLMs to procedurally design playable games through stories, without any task-specific fine-tuning. Word2World leverages the abilities of LLMs to create diverse content and extract information. Combining these abilities, LLMs can create a story for the game, design narrative, and place tiles in appropriate places to create coherent worlds and playable games. We test Word2World with different LLMs and perform a thorough ablation study to validate each step. We open-source the code at https://github.com/umair-nasir14/Word2World.
- Abstract(参考訳): 大規模言語モデル(LLM)は様々な分野にまたがってその価値を証明している。
LLMは、手続き的コンテンツ生成(PCG)にも大きな可能性を示しているが、事前訓練されたLCMを通して直接レベルを生成することは依然として困難である。
この研究は、LLMがタスク固有の微調整なしにストーリーを通して手続き的にプレイ可能なゲームを設計できるシステムであるWord2Worldを紹介した。
Word2WorldはLLMの能力を活用して多様なコンテンツを作成し、情報を抽出する。
これらの能力を組み合わせることで、LLMはゲームのためのストーリーを作成し、物語をデザインし、タイルを適切な場所に配置し、コヒーレントな世界やプレイ可能なゲームを作ることができる。
我々は異なるLLMでWord2Worldをテストし、それぞれのステップを検証するために徹底的なアブレーション研究を行う。
私たちはhttps://github.com/umair-nasir14/Word2World.orgでコードをオープンソース化しました。
関連論文リスト
- WALL-E: World Alignment by Rule Learning Improves World Model-based LLM Agents [55.64361927346957]
大規模言語モデル(LLM)による規則の勾配なし学習のためのニューロシンボリックアプローチを提案する。
我々のLLMエージェントWALL-Eはモデル予測制御(MPC)上に構築されている
MinecraftとALFWorldにおけるオープンワールドの課題について、WALL-Eは既存の方法よりも高い成功率を達成する。
論文 参考訳(メタデータ) (2024-10-09T23:37:36Z) - Assessing Language Models' Worldview for Fiction Generation [0.0]
本研究では,大言語モデルがフィクションの創出に不可欠な世界を維持する能力について考察する。
2つのモデルだけが一貫した世界観を示しており、残りは自己複製である。
このモデル間の統一性は、フィクションに必要な国家の欠如をさらに示唆している。
論文 参考訳(メタデータ) (2024-08-15T03:19:41Z) - Game Generation via Large Language Models [3.4051285393187327]
本稿では,大言語モデル(LLM)を用いたゲーム生成について検討する。
ゲーム記述言語に基づいて,ゲームルールとレベルを同時に生成するLLMベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-11T10:06:05Z) - Amharic LLaMA and LLaVA: Multimodal LLMs for Low Resource Languages [0.0]
大規模言語モデル(LLM)は、自然言語処理タスクにおいて驚くほどの習熟度を示している。
LLMは、トレーニングデータが少ないため、低リソースの言語でよく機能するのに苦労することが多い。
本研究では,世界5000万人以上の人々が話す言語であるAmharicを話すためのLLaMA-2の訓練について検討する。
論文 参考訳(メタデータ) (2024-03-11T01:04:36Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Let's Think Outside the Box: Exploring Leap-of-Thought in Large Language Models with Creative Humor Generation [96.0573187419543]
Chain-of-Thought(CoT)は、大きな言語モデルをステップバイステップで推論し、その論理的推論能力を動機付ける。
大規模言語モデル(LLM)におけるLeap-of-Thought(LoT)能力について検討する。
LoTは、強い結びつきと知識の飛躍を含む、シークエンシャルで創造的なパラダイムである。
論文 参考訳(メタデータ) (2023-12-05T02:41:57Z) - AlignedCoT: Prompting Large Language Models via Native-Speaking Demonstrations [52.43593893122206]
Alignedcotは、大規模言語モデルを呼び出すためのコンテキスト内学習技術である。
ゼロショットシナリオでは、一貫した正しいステップワイズプロンプトを達成する。
数学的推論とコモンセンス推論の実験を行う。
論文 参考訳(メタデータ) (2023-11-22T17:24:21Z) - InfMLLM: A Unified Framework for Visual-Language Tasks [44.29407348046122]
マルチモーダルな大言語モデル (MLLM) が注目されている。
この作業は、LLMがより視覚的な言語に関連したタスクに取り組むことを可能にすることを目的としている。
InfMLLMは、最先端(SOTA)パフォーマンスまたは最近のMLLMに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-11-12T09:58:16Z) - CulturaX: A Cleaned, Enormous, and Multilingual Dataset for Large
Language Models in 167 Languages [86.90220551111096]
大規模言語モデル(LLM)のトレーニングデータセットは、完全には公開されないことが多い。
我々は167言語で6.3兆のトークンを持つ相当な多言語データセットであるCulturaXを紹介する。
論文 参考訳(メタデータ) (2023-09-17T23:49:10Z) - Okapi: Instruction-tuned Large Language Models in Multiple Languages
with Reinforcement Learning from Human Feedback [61.83548032416181]
複数の言語を対象としたRLHFに基づく命令調整型LLMシステムであるOkapiを提案する。
オカピは26の多言語言語でインストラクションと応答ランクデータを導入し、将来の多言語LLM研究の促進と開発に役立てている。
論文 参考訳(メタデータ) (2023-07-29T18:01:46Z) - Level Generation Through Large Language Models [3.620115940532283]
大きな言語モデル(LLM)は、自然言語によるトレーニングを活用して、ストーリーを書いたり、コードを作ったり、質問に答えることのできる強力なツールです。
しかし、彼らは機能的なビデオゲームレベルを生成できるだろうか?
複雑な機能的制約と1次元以上の空間的関係を持つゲームレベルは、LLMがトレーニング中に一般的に見るデータの種類とは大きく異なる。
ゲーム「ソコバン」のレベル生成におけるLLMの使用について検討し、LLMが実際に実現可能であること、およびデータセットサイズとともにその性能が劇的に拡大していることを見出した。
論文 参考訳(メタデータ) (2023-02-11T23:34:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。