論文の概要: Resource-constrained Amazons chess decision framework integrating large language models and graph attention
- arxiv url: http://arxiv.org/abs/2603.10512v1
- Date: Wed, 11 Mar 2026 08:07:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.841062
- Title: Resource-constrained Amazons chess decision framework integrating large language models and graph attention
- Title(参考訳): 大規模言語モデルとグラフアテンションを統合したリソース制約付きAmazonのチェス決定フレームワーク
- Authors: Tianhao Qian, Zhuoxuan Li, Jinde Cao, Xinli Shi, Hanjie Liu, Leszek Rutkowski,
- Abstract要約: ゲーム・オブ・ザ・アマゾンのための軽量ハイブリッドフレームワークを提案する。
グラフに基づく学習の構造的推論と,大規模言語モデルの生成能力を統合する。
我々の枠組みは騒音と不完全な監督から学んでいる。
- 参考スコア(独自算出の注目度): 49.68148244247448
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence has advanced significantly through the development of intelligent game-playing systems, providing rigorous testbeds for decision-making, strategic planning, and adaptive learning. However, resource-constrained environments pose critical challenges, as conventional deep learning methods heavily rely on extensive datasets and computational resources. In this paper, we propose a lightweight hybrid framework for the Game of the Amazons, which explores the paradigm of weak-to-strong generalization by integrating the structural reasoning of graph-based learning with the generative capabilities of large language models. Specifically, we leverage a Graph Attention Autoencoder to inform a multi-step Monte Carlo Tree Search, utilize a Stochastic Graph Genetic Algorithm to optimize evaluation signals, and harness GPT-4o-mini to generate synthetic training data. Unlike traditional approaches that rely on expert demonstrations, our framework learns from noisy and imperfect supervision. We demonstrate that the Graph Attention mechanism effectively functions as a structural filter, denoising the LLM's outputs. Experiments on a 10$\times$10 Amazons board show that our hybrid approach not only achieves a 15\%--56\% improvement in decision accuracy over baselines but also significantly outperforms its teacher model (GPT-4o-mini), achieving a competitive win rate of 45.0\% at N=30 nodes and a decisive 66.5\% at only N=50 nodes. These results verify the feasibility of evolving specialized, high-performance game AI from general-purpose foundation models under stringent computational constraints.
- Abstract(参考訳): 人工知能は、インテリジェントなゲームプレイシステムの開発を通じて、意思決定、戦略的計画、適応学習のための厳格なテストベッドを提供し、大きく進歩した。
しかし、従来のディープラーニング手法は広範なデータセットや計算資源に大きく依存するため、リソース制約のある環境は重要な課題を生んでいる。
本稿では,グラフに基づく学習の構造的推論と大規模言語モデルの生成能力を統合することで,弱いから強い一般化のパラダイムを探求する,AmazonのGame of the Amazonsのための軽量ハイブリッドフレームワークを提案する。
具体的には,グラフ注意オートエンコーダを用いてモンテカルロ木探索を行い,確率グラフ遺伝的アルゴリズムを用いて評価信号の最適化を行い,GPT-4o-miniを用いて合成学習データを生成する。
専門家によるデモンストレーションに依存する従来のアプローチとは異なり、私たちのフレームワークは騒々しく不完全な監視から学んでいます。
我々は,グラフ注意機構が構造フィルタとして効果的に機能し,LLMの出力を劣化させることを示した。
10$\times$10 Amazonsボードの実験によると、我々のハイブリッドアプローチは、ベースラインよりも決定精度が15\%--56\%向上しただけでなく、教師モデル(GPT-4o-mini)を著しく上回り、N=30ノードで45.0\%、N=50ノードで66.5\%の競争勝利率を達成した。
これらの結果は, 厳密な計算制約下での汎用基礎モデルから, 高度に進化したゲームAIの実現可能性を検証するものである。
関連論文リスト
- Self-Adaptive Graph Mixture of Models [4.3009319001455975]
Self-Adaptive Graph Mixture of Models (SAGMM)は、最も適切なGNNモデルを自動的に選択して組み合わせることを学ぶモジュール式で実用的なフレームワークである。
我々は、ノード分類、グラフ分類、回帰、リンク予測タスクを含む16のベンチマークデータセット上でSAGMMを評価する。
論文 参考訳(メタデータ) (2025-11-17T07:11:06Z) - Large Language Model enabled Mathematical Modeling [2.132096006921049]
本研究では,Large Language Models (LLMs) の自然言語理解とコード生成による定式化ギャップを埋める可能性について検討する。
DeepSeek-R1は、強化学習で訓練された費用効率で高性能なモデルである。
本手法は,基礎的評価,幻覚分類の発達,緩和戦略の適用を含む。
論文 参考訳(メタデータ) (2025-10-22T17:41:42Z) - G-reasoner: Foundation Models for Unified Reasoning over Graph-structured Knowledge [88.82814893945077]
大規模言語モデル(LLM)は複雑な推論において優れているが、静的かつ不完全なパラメトリック知識によって制限される。
最近のグラフ強化RAG (GraphRAG) は、このギャップを補足したグラフを構築し、LLMがそれらを推論できるようにする。
G-reasonerは、様々なグラフ構造化知識を推論するためにグラフと言語基盤モデルを統合した統合フレームワークである。
論文 参考訳(メタデータ) (2025-09-29T04:38:12Z) - LightGCL: Simple Yet Effective Graph Contrastive Learning for
Recommendation [9.181689366185038]
グラフニューラルクラスタリングネットワーク(GNN)は、グラフベースのレコメンデータシステムのための強力な学習手法である。
本稿では,単純なグラフコントラスト学習パラダイムであるLightGCLを提案する。
論文 参考訳(メタデータ) (2023-02-16T10:16:21Z) - GraphLearner: Graph Node Clustering with Fully Learnable Augmentation [76.63963385662426]
Contrastive Deep Graph Clustering (CDGC)は、異なるクラスタにノードをグループ化するために、コントラスト学習のパワーを活用する。
我々は、GraphLearnerと呼ばれる、完全学習可能な拡張を備えたグラフノードクラスタリングを提案する。
学習可能な拡張器を導入し、CDGCのための高品質でタスク固有の拡張サンプルを生成する。
論文 参考訳(メタデータ) (2022-12-07T10:19:39Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - Deep Reinforcement Learning of Graph Matching [63.469961545293756]
ノードとペアの制約下でのグラフマッチング(GM)は、最適化からコンピュータビジョンまでの領域におけるビルディングブロックである。
GMのための強化学習ソルバを提案する。
rgmはペアワイズグラフ間のノード対応を求める。
本手法は,フロントエンドの特徴抽出と親和性関数学習に焦点をあてるという意味において,従来のディープグラフマッチングモデルと異なる。
論文 参考訳(メタデータ) (2020-12-16T13:48:48Z) - Heuristic Semi-Supervised Learning for Graph Generation Inspired by
Electoral College [80.67842220664231]
本稿では,新たなノードやエッジを自動的に拡張して,高密度サブグラフ内のラベル類似性を向上する,新しい前処理手法であるElectoral College(ELCO)を提案する。
テストされたすべての設定において、我々の手法はベースモデルの平均スコアを4.7ポイントの広いマージンで引き上げるとともに、常に最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2020-06-10T14:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。