論文の概要: Usando LLMs para Programar Jogos de Tabuleiro e Variações
- arxiv url: http://arxiv.org/abs/2511.05114v1
- Date: Fri, 07 Nov 2025 09:58:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.72969
- Title: Usando LLMs para Programar Jogos de Tabuleiro e Variações
- Title(参考訳): Usando LLMs para Programar Jogos de Tabuleiro e Variaçees
- Authors: Álvaro Guglielmin Becker, Lana Bertoldo Rossato, Anderson Rocha Tavares,
- Abstract要約: 大規模言語モデル(LLM)は、このプロセスを高速化するための魅力的なツールとして現れます。
ボードゲームのためのコード作成において,3つのLLMがどの程度の能力を持つかを検証し,既存ゲームの新たな変種も提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Creating programs to represent board games can be a time-consuming task. Large Language Models (LLMs) arise as appealing tools to expedite this process, given their capacity to efficiently generate code from simple contextual information. In this work, we propose a method to test how capable three LLMs (Claude, DeepSeek and ChatGPT) are at creating code for board games, as well as new variants of existing games.
- Abstract(参考訳): ボードゲームを表すプログラムを作成するのは時間を要する作業です。
大きな言語モデル(LLM)は、単純な文脈情報から効率的にコードを生成する能力を考えると、このプロセスを高速化するための魅力的なツールとして現れます。
本研究では,ボードゲームのためのコード作成における3つのLLM(Claude,DeepSeek,ChatGPT)の有効性および既存ゲームの新たなバリエーションを検証する方法を提案する。
関連論文リスト
- Boardwalk: Towards a Framework for Creating Board Games with LLMs [0.0]
我々は,自然言語で記述されたルールから,大規模言語モデルがボードゲームのデジタル版を実装できるかどうかを検討することを目的とする。
我々は,ボードウォーク内およびボードウォーク内において,人気ゲーム12選をコーディングするために,最先端の3つのLSMを課題とする。
我々のアプローチは、最高のパフォーマンスモデルであるClaude 3.7 Sonnetで、エラーなく55.6%のゲームが得られることを証明している。
論文 参考訳(メタデータ) (2025-08-22T15:02:07Z) - Cardiverse: Harnessing LLMs for Novel Card Game Prototyping [9.029874576285085]
カードゲームは創造的なアイデアとゲームプレイ評価において広範囲の人的努力を必要とする。
大規模言語モデルの最近の進歩は、これらのプロセスを自動化する機会を提供する。
本稿では,総合的な自動カードゲームプロトタイピングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-10T23:47:35Z) - Game Generation via Large Language Models [3.4051285393187327]
本稿では,大言語モデル(LLM)を用いたゲーム生成について検討する。
ゲーム記述言語に基づいて,ゲームルールとレベルを同時に生成するLLMベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-11T10:06:05Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - CREATOR: Tool Creation for Disentangling Abstract and Concrete Reasoning of Large Language Models [74.22729793816451]
大規模言語モデル(LLM)はツールの利用において大きな進歩を遂げているが、その能力はAPIの可用性によって制限されている。
我々は、LCMがドキュメンテーションとコード実現を使って独自のツールを作成できる新しいフレームワークCREATORを提案する。
我々は,MATH と TabMWP のベンチマークで CREATOR を評価する。
論文 参考訳(メタデータ) (2023-05-23T17:51:52Z) - Learning to Plan with Natural Language [111.76828049344839]
大規模言語モデル(LLM)は、様々な基本自然言語タスクにおいて顕著な性能を示している。
複雑なタスクを完了するためには、ステップごとに特定のソリューションを生成するためにLCMをガイドするタスクの計画が必要です。
本研究では,(1)第1学習課題計画フェーズにおいて,LCMが学習エラーフィードバックから導出するように促した新たなステップバイステップのソリューションと行動指示を用いてタスク計画を反復的に更新する,という2つの段階を含む学習計画手法を提案する。
論文 参考訳(メタデータ) (2023-04-20T17:09:12Z) - Low-code LLM: Graphical User Interface over Large Language Models [115.08718239772107]
本稿では,人間-LLMインタラクションフレームワークであるLow-code LLMを紹介する。
より制御可能で安定した応答を実現するために、6種類のシンプルなローコードビジュアルプログラミングインタラクションを組み込んでいる。
ユーザフレンドリなインタラクション,制御可能な生成,広い適用性という,低コード LLM の3つの利点を強調した。
論文 参考訳(メタデータ) (2023-04-17T09:27:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。