論文の概要: Usando LLMs para Programar Jogos de Tabuleiro e Variações
- arxiv url: http://arxiv.org/abs/2511.05114v1
- Date: Fri, 07 Nov 2025 09:58:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.72969
- Title: Usando LLMs para Programar Jogos de Tabuleiro e Variações
- Title(参考訳): Usando LLMs para Programar Jogos de Tabuleiro e Variaçees
- Authors: Álvaro Guglielmin Becker, Lana Bertoldo Rossato, Anderson Rocha Tavares,
- Abstract要約: 大規模言語モデル(LLM)は、このプロセスを高速化するための魅力的なツールとして現れます。
ボードゲームのためのコード作成において,3つのLLMがどの程度の能力を持つかを検証し,既存ゲームの新たな変種も提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Creating programs to represent board games can be a time-consuming task. Large Language Models (LLMs) arise as appealing tools to expedite this process, given their capacity to efficiently generate code from simple contextual information. In this work, we propose a method to test how capable three LLMs (Claude, DeepSeek and ChatGPT) are at creating code for board games, as well as new variants of existing games.
- Abstract(参考訳): ボードゲームを表すプログラムを作成するのは時間を要する作業です。
大きな言語モデル(LLM)は、単純な文脈情報から効率的にコードを生成する能力を考えると、このプロセスを高速化するための魅力的なツールとして現れます。
本研究では,ボードゲームのためのコード作成における3つのLLM(Claude,DeepSeek,ChatGPT)の有効性および既存ゲームの新たなバリエーションを検証する方法を提案する。
関連論文リスト
- Boardwalk: Towards a Framework for Creating Board Games with LLMs [0.0]
我々は,自然言語で記述されたルールから,大規模言語モデルがボードゲームのデジタル版を実装できるかどうかを検討することを目的とする。
我々は,ボードウォーク内およびボードウォーク内において,人気ゲーム12選をコーディングするために,最先端の3つのLSMを課題とする。
我々のアプローチは、最高のパフォーマンスモデルであるClaude 3.7 Sonnetで、エラーなく55.6%のゲームが得られることを証明している。
論文 参考訳(メタデータ) (2025-08-22T15:02:07Z) - Cardiverse: Harnessing LLMs for Novel Card Game Prototyping [9.029874576285085]
カードゲームは創造的なアイデアとゲームプレイ評価において広範囲の人的努力を必要とする。
大規模言語モデルの最近の進歩は、これらのプロセスを自動化する機会を提供する。
本稿では,総合的な自動カードゲームプロトタイピングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-10T23:47:35Z) - Renaissance of Literate Programming in the Era of LLMs: Enhancing LLM-Based Code Generation in Large-Scale Projects [7.927743991760644]
大規模言語モデル(LLM)は、コード生成、理解、修復を通じてプログラマの効率向上を支援する。
大規模プロジェクトへの彼らの適用は、複雑な相互依存と近代の広範な規模のために、依然として困難である。
本研究では,ILP(Interoperable LP)の概念を導入し,LLMによる小規模文書と大規模プロジェクトの開発を促進する。
論文 参考訳(メタデータ) (2024-12-25T12:02:46Z) - Sketch: A Toolkit for Streamlining LLM Operations [51.33202045501429]
大規模言語モデル(LLM)は大きな成功を収めた。
アウトプットフォーマットの柔軟性は、モデルのアウトプットを制御および活用する上での課題を引き起こします。
スケッチ(Sketch)は、多種多様な分野にわたるLCM操作を合理化するための革新的なツールキットである。
論文 参考訳(メタデータ) (2024-09-05T08:45:44Z) - Game Development as Human-LLM Interaction [55.03293214439741]
本稿では,Human-LLMインタラクションを利用したChat Game Engine(ChatGE)を紹介する。
ChatGEは、Human-LLMインタラクションを通じて、自然言語を使ってカスタムゲームを開発することができる。
ポーカーゲームのためのChatGEをケーススタディとして構築し、インタラクションの品質とコードの正確性という2つの観点から評価する。
論文 参考訳(メタデータ) (2024-08-18T07:06:57Z) - Word2World: Generating Stories and Worlds through Large Language Models [5.80330969550483]
大規模言語モデル(LLM)は様々な分野にまたがってその価値を証明している。
この研究は、LLMがストーリーを通してプレイ可能なゲームを手続き的に設計できるシステムであるWord2Worldを紹介した。
論文 参考訳(メタデータ) (2024-05-06T14:21:52Z) - Game Generation via Large Language Models [3.4051285393187327]
本稿では,大言語モデル(LLM)を用いたゲーム生成について検討する。
ゲーム記述言語に基づいて,ゲームルールとレベルを同時に生成するLLMベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-11T10:06:05Z) - Instruction-Driven Game Engines on Large Language Models [59.280666591243154]
IDGEプロジェクトは、大規模な言語モデルが自由形式のゲームルールに従うことを可能にすることで、ゲーム開発を民主化することを目的としている。
我々は、複雑なシナリオに対するモデルの露出を徐々に増大させるカリキュラム方式でIDGEを訓練する。
私たちの最初の進歩は、汎用的なカードゲームであるPoker用のIDGEを開発することです。
論文 参考訳(メタデータ) (2024-03-30T08:02:16Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - CREATOR: Tool Creation for Disentangling Abstract and Concrete Reasoning of Large Language Models [74.22729793816451]
大規模言語モデル(LLM)はツールの利用において大きな進歩を遂げているが、その能力はAPIの可用性によって制限されている。
我々は、LCMがドキュメンテーションとコード実現を使って独自のツールを作成できる新しいフレームワークCREATORを提案する。
我々は,MATH と TabMWP のベンチマークで CREATOR を評価する。
論文 参考訳(メタデータ) (2023-05-23T17:51:52Z) - Learning to Plan with Natural Language [111.76828049344839]
大規模言語モデル(LLM)は、様々な基本自然言語タスクにおいて顕著な性能を示している。
複雑なタスクを完了するためには、ステップごとに特定のソリューションを生成するためにLCMをガイドするタスクの計画が必要です。
本研究では,(1)第1学習課題計画フェーズにおいて,LCMが学習エラーフィードバックから導出するように促した新たなステップバイステップのソリューションと行動指示を用いてタスク計画を反復的に更新する,という2つの段階を含む学習計画手法を提案する。
論文 参考訳(メタデータ) (2023-04-20T17:09:12Z) - Low-code LLM: Graphical User Interface over Large Language Models [115.08718239772107]
本稿では,人間-LLMインタラクションフレームワークであるLow-code LLMを紹介する。
より制御可能で安定した応答を実現するために、6種類のシンプルなローコードビジュアルプログラミングインタラクションを組み込んでいる。
ユーザフレンドリなインタラクション,制御可能な生成,広い適用性という,低コード LLM の3つの利点を強調した。
論文 参考訳(メタデータ) (2023-04-17T09:27:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。