論文の概要: UrzaGPT: LoRA-Tuned Large Language Models for Card Selection in Collectible Card Games
- arxiv url: http://arxiv.org/abs/2508.08382v1
- Date: Mon, 11 Aug 2025 18:09:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.203228
- Title: UrzaGPT: LoRA-Tuned Large Language Models for Card Selection in Collectible Card Games
- Title(参考訳): UrzaGPT: カードゲームにおけるカード選択のための LoRA-Tuned Large Language Models
- Authors: Timo Bertram,
- Abstract要約: 我々は、リアルタイムのドラフト決定を推奨するドメイン適応の大規模言語モデルである$textitUrzaGPT$を紹介します。
ゼロショット LLM や最先端のドメイン固有モデルと比較して $textitUrzaGPT$ をベンチマークする。
UrzaGPTを使って小さなモデルを微調整し、わずか10,000ステップで6.2%の精度を得る。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Collectible card games (CCGs) are a difficult genre for AI due to their partial observability, long-term decision-making, and evolving card sets. Due to this, current AI models perform vastly worse than human players at CCG tasks such as deckbuilding and gameplay. In this work, we introduce $\textit{UrzaGPT}$, a domain-adapted large language model that recommends real-time drafting decisions in $\textit{Magic: The Gathering}$. Starting from an open-weight LLM, we use Low-Rank Adaptation fine-tuning on a dataset of annotated draft logs. With this, we leverage the language modeling capabilities of LLM, and can quickly adapt to different expansions of the game. We benchmark $\textit{UrzaGPT}$ in comparison to zero-shot LLMs and the state-of-the-art domain-specific model. Untuned, small LLMs like Llama-3-8B are completely unable to draft, but the larger GPT-4o achieves a zero-shot performance of $43\%$. Using UrzaGPT to fine-tune smaller models, we achieve an accuracy of $66.2\%$ using only 10,000 steps. Despite this not reaching the capability of domain-specific models, we show that solely using LLMs to draft is possible and conclude that using LLMs can enable performant, general, and update-friendly drafting AIs in the future.
- Abstract(参考訳): 集合カードゲーム(CCG)は、部分的な可観測性、長期的な意思決定、進化するカードセットのために、AIにとって難しいジャンルである。
このため、現在のAIモデルは、デッキビルディングやゲームプレイといったCGタスクにおいて、人間のプレイヤーよりもはるかにパフォーマンスが悪くなっている。
本稿では、$\textit{Magic: The Gathering}$でリアルタイムのドラフト決定を推奨するドメイン適応の大規模言語モデルである$\textit{UrzaGPT}$を紹介します。
オープンウェイト LLM から始めて,注釈付きドラフトログのデータセット上で低ランク適応を微調整する。
これにより、LLMの言語モデリング能力を活用し、ゲームの様々な拡張に迅速に適応できる。
ゼロショットLLMや最先端のドメイン固有モデルと比較して、$\textit{UrzaGPT}$をベンチマークする。
Llama-3-8Bのような小型のLLMは完全にドラフトできないが、より大きなGPT-4oは43\%のゼロショット性能を実現している。
UrzaGPTを使って小さなモデルを微調整し、わずか10,000ステップで6.2 %の精度を得る。
このことはドメイン固有モデルの能力に届かなかったが、LLMをドラフトにのみ使用することは可能であり、将来的にはLLMを使用することで、パフォーマンス、汎用、アップデートフレンドリなドラフトAIを実現できると結論付けている。
関連論文リスト
- Fine-Tune an SLM or Prompt an LLM? The Case of Generating Low-Code Workflows [1.6163129903911508]
現実世界のアプリケーションのための微調整の小さな言語モデル(SLM)は、もはや明確ではないかもしれない。
我々は、低符号を生成するタスクにおいて、SLMの微調整とLCMのプロンプトを比較した。
適切なプロンプトが妥当な結果をもたらす一方で、微調整は品質を平均で10%向上させる。
論文 参考訳(メタデータ) (2025-05-30T03:59:35Z) - GameTraversalBenchmark: Evaluating Planning Abilities Of Large Language Models Through Traversing 2D Game Maps [5.874552372073687]
大規模言語モデル(LLM)は、最近、自然言語の生成と理解において大きな成功を収めた。
多様な2次元グリッドベースのゲームマップからなるベンチマークであるGameTraversalBenchmark (GTB)を提案する。
GPT-4-TurboはGTB_Score(GTBS)で44.97%の最高スコアを記録した。
論文 参考訳(メタデータ) (2024-10-10T09:54:28Z) - How Far Are We on the Decision-Making of LLMs? Evaluating LLMs' Gaming Ability in Multi-Agent Environments [83.78240828340681]
GAMA($gamma$)-Benchは、マルチエージェント環境における大規模言語モデルのゲーム能力を評価するための新しいフレームワークである。
$gamma$-Benchは8つの古典ゲーム理論シナリオと、LSMの性能を評価するために特別に設計された動的スコアリングスキームを含んでいる。
以上の結果から, GPT-3.5は強い強靭性を示すが, 一般化性は限定的であり, Chain-of-Thoughtのような手法で拡張可能であることが示唆された。
論文 参考訳(メタデータ) (2024-03-18T14:04:47Z) - Logits of API-Protected LLMs Leak Proprietary Information [46.014638838911566]
大きな言語モデル(LLM)プロバイダは、制限されたAPIへのパブリックアクセスを制限することで、プロプライエタリなモデルのアーキテクチャの詳細とパラメータを隠蔽することが多い。
比較的少数のAPIクエリから,APIで保護されたLLMに関する驚くほど多くの非公開情報を学習することが可能であることを示す。
論文 参考訳(メタデータ) (2024-03-14T16:27:49Z) - Can Large Language Models Play Games? A Case Study of A Self-Play
Approach [61.15761840203145]
LLM(Large Language Models)は、インターネットからの広範なデータを利用して、幅広い事前知識を格納する。
Monte-Carlo Tree Search (MCTS)は、信頼性の高い意思決定ソリューションを提供する検索アルゴリズムである。
この研究は、ターンベースのゼロサムゲームを効率的に解決するために、MCTSセルフプレイでLLMを活性化させる革新的なアプローチを導入している。
論文 参考訳(メタデータ) (2024-03-08T19:16:29Z) - ArthModel: Enhance Arithmetic Skills to Large Language Model [0.0]
この作業は、さまざまな思考方法、トレーニング方法、言語モデルの使用方法を提供します。
コードとモデルはurlhttps://www.eteced.com/eteced/arithmetic_finetuning_v1でリリースされる。
論文 参考訳(メタデータ) (2023-11-30T15:06:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。