論文の概要: Generalized Rapid Action Value Estimation in Memory-Constrained Environments
- arxiv url: http://arxiv.org/abs/2602.23318v1
- Date: Thu, 26 Feb 2026 18:25:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.844148
- Title: Generalized Rapid Action Value Estimation in Memory-Constrained Environments
- Title(参考訳): メモリ制約環境における一般化された高速行動値の推定
- Authors: Aloïs Rautureau, Tristan Cazenave, Éric Piette,
- Abstract要約: GRAVE2, GRAVER, GRAVER2アルゴリズムを導入し, GRAVEを2段階探索, ノードリサイクル, 両手法の組み合わせにより拡張する。
これらの拡張により,GRAVEの演奏強度に適合しながら,記憶ノード数を劇的に削減できることを示す。
- 参考スコア(独自算出の注目度): 2.936338157462021
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generalized Rapid Action Value Estimation (GRAVE) has been shown to be a strong variant within the Monte-Carlo Tree Search (MCTS) family of algorithms for General Game Playing (GGP). However, its reliance on storing additional win/visit statistics at each node makes its use impractical in memory-constrained environments, thereby limiting its applicability in practice. In this paper, we introduce the GRAVE2, GRAVER and GRAVER2 algorithms, which extend GRAVE through two-level search, node recycling, and a combination of both techniques, respectively. We show that these enhancements enable a drastic reduction in the number of stored nodes while matching the playing strength of GRAVE.
- Abstract(参考訳): Generalized Rapid Action Value Estimation (GRAVE)は、汎用ゲームプレイング(GGP)のためのアルゴリズムのMCTS(Monte-Carlo Tree Search)ファミリーにおいて強力な変種であることが示されている。
しかし、各ノードに追加のウィン/ビジット統計を保存することへの依存は、メモリ制約のある環境での使用を非現実的にし、実際には適用性を制限する。
本稿では, GRAVE2, GRAVER, GRAVER2アルゴリズムについて述べる。
これらの拡張により,GRAVEの演奏強度に適合しながら,記憶ノード数を劇的に削減できることを示す。
関連論文リスト
- Improving Monte Carlo Tree Search for Symbolic Regression [13.641201012951356]
記号回帰は、望ましい目的を満たす簡潔で解釈可能な数学的表現を見つけることを目的としている。
2つの重要な革新を通じてこれらの制限に対処するシンボリックレグレッションのための改良されたフレームワークを提案する。
本手法は, 回復率の観点から, 最先端ライブラリと競合する性能を達成し, 精度とモデル複雑性の両面において良好な位置を占める。
論文 参考訳(メタデータ) (2025-09-19T12:36:05Z) - Degree-Conscious Spiking Graph for Cross-Domain Adaptation [51.58506501415558]
Spiking Graph Networks (SGNs) はグラフ分類において大きな可能性を証明している。
DeSGraDA(Degree-Consicious Spiking Graph for Cross-Domain Adaptation)という新しいフレームワークを紹介する。
DeSGraDAは3つのキーコンポーネントを持つドメイン間の一般化を強化する。
論文 参考訳(メタデータ) (2024-10-09T13:45:54Z) - Rethinking and Accelerating Graph Condensation: A Training-Free Approach with Class Partition [49.41718583061147]
グラフ凝縮(Graph condensation)は、大きなグラフを小さいが情報的な凝縮グラフに置き換えるための、データ中心のソリューションである。
既存のGCメソッドは、複雑な最適化プロセス、過剰なコンピューティングリソースとトレーニング時間を必要とする。
我々は、CGC(Class-partitioned Graph Condensation)と呼ばれるトレーニング不要なGCフレームワークを提案する。
CGCはOgbn-productsグラフを30秒以内に凝縮し、102$Xから104$Xまでのスピードアップを実現し、精度は4.2%まで向上した。
論文 参考訳(メタデータ) (2024-05-22T14:57:09Z) - Bypassing Skip-Gram Negative Sampling: Dimension Regularization as a More Efficient Alternative for Graph Embeddings [8.858596502294471]
提案手法は, ノード操作よりもSGNSノードワイド・リパルスの方がスケーラブルであることを示す。
本稿では,SGNSを用いて既存のアルゴリズムのスケーラビリティを向上させるフレキシブルアルゴリズム拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-30T19:43:01Z) - Accel-GCN: High-Performance GPU Accelerator Design for Graph Convolution
Networks [12.181052673940465]
グラフ畳み込みネットワーク(GCN)は、様々な領域にわたるグラフデータから潜伏情報を抽出する上で重要である。
本稿では,GCNのためのGPUアクセラレータアーキテクチャであるAccel-GCNを紹介する。
18のベンチマークグラフに対するAccel-GCNの評価では、cuSPARSE、GNNAdvisor、Graph-BLASTをそれぞれ1.17倍、1.86倍、2.94倍で上回っている。
論文 参考訳(メタデータ) (2023-08-22T23:12:17Z) - Binary Graph Convolutional Network with Capacity Exploration [58.99478502486377]
ネットワークパラメータと入力ノード属性の両方を二項化するバイナリグラフ畳み込みネットワーク(Bi-GCN)を提案する。
我々のBi-GCNは、ネットワークパラメータと入力データの両方で平均31倍のメモリ消費を削減でき、推論速度を平均51倍に加速できる。
論文 参考訳(メタデータ) (2022-10-24T12:05:17Z) - Boosting Graph Neural Networks by Injecting Pooling in Message Passing [4.952681349410351]
オーバースムーシングを防止するために,新しい,適応可能な,強力なMPフレームワークを提案する。
我々の両側MPは、ノードのクラス情報を利用して、ペアワイズなモジュラー勾配を推定する。
5つの中規模ベンチマークデータセットの実験から、二値MPは過度なスムーシングを緩和することで性能を向上させることが示されている。
論文 参考訳(メタデータ) (2022-02-08T08:21:20Z) - Kernelized Multiplicative Weights for 0/1-Polyhedral Games: Bridging the
Gap Between Learning in Extensive-Form and Normal-Form Games [76.21916750766277]
カーネルトリックを用いて,最適乗算重み更新(OMWU)アルゴリズムをゲームツリーサイズ毎のリニア時間でEFGの正規形等価値にシミュレート可能であることを示す。
特に、KoMWUは、最終点収束を同時に保証する最初のアルゴリズムを提供する。
論文 参考訳(メタデータ) (2022-02-01T06:28:51Z) - GNNAutoScale: Scalable and Expressive Graph Neural Networks via
Historical Embeddings [51.82434518719011]
GNNAutoScale(GAS)は、任意のメッセージパスGNNを大規模グラフにスケールするためのフレームワークである。
ガスは、前回のトレーニングの繰り返しから過去の埋め込みを利用して計算グラフのサブツリー全体を掘り起こします。
ガスは大規模グラフ上で最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2021-06-10T09:26:56Z) - Fast Graph Attention Networks Using Effective Resistance Based Graph
Sparsification [70.50751397870972]
FastGATは、スペクトルスペーシフィケーションを用いて、注目に基づくGNNを軽量にし、入力グラフの最適プルーニングを生成する手法である。
我々は,ノード分類タスクのための大規模実世界のグラフデータセット上でFastGATを実験的に評価した。
論文 参考訳(メタデータ) (2020-06-15T22:07:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。