論文の概要: Rapfi: Distilling Efficient Neural Network for the Game of Gomoku
- arxiv url: http://arxiv.org/abs/2503.13178v1
- Date: Mon, 17 Mar 2025 13:53:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:34:16.801801
- Title: Rapfi: Distilling Efficient Neural Network for the Game of Gomoku
- Title(参考訳): Rapfi: ゴモクゲームのための効率的なニューラルネットワーク
- Authors: Zhanggen Jin, Haobin Duan, Zhiyang Hang,
- Abstract要約: Rapfiは、限られた環境でCNNベースのエージェントより優れた効率の良いGomokuエージェントである。
ラプフィは520人中1位となり、2024年のゴモカップで優勝した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Games have played a pivotal role in advancing artificial intelligence, with AI agents using sophisticated techniques to compete. Despite the success of neural network based game AIs, their performance often requires significant computational resources. In this paper, we present Rapfi, an efficient Gomoku agent that outperforms CNN-based agents in limited computation environments. Rapfi leverages a compact neural network with a pattern-based codebook distilled from CNNs, and an incremental update scheme that minimizes computation when input changes are minor. This new network uses computation that is orders of magnitude less to reach a similar accuracy of much larger neural networks such as Resnet. Thanks to our incremental update scheme, depth-first search methods such as the alpha-beta search can be significantly accelerated. With a carefully tuned evaluation and search, Rapfi reached strength surpassing Katagomo, the strongest open-source Gomoku AI based on AlphaZero's algorithm, under limited computational resources where accelerators like GPUs are absent. Rapfi ranked first among 520 Gomoku agents on Botzone and won the championship in GomoCup 2024.
- Abstract(参考訳): ゲームは人工知能の進歩において重要な役割を果たしており、AIエージェントは高度な技術を使って競争している。
ニューラルネットワークベースのゲームAIの成功にもかかわらず、そのパフォーマンスは大きな計算資源を必要とすることが多い。
本稿では、限られた計算環境下でCNNベースのエージェントより優れた効率のよいゴモクエージェントRapfiを提案する。
Rapfiは、CNNから蒸留されたパターンベースのコードブックと、入力変更がマイナーな場合の計算を最小限にするインクリメンタル更新スキームを備えた、コンパクトなニューラルネットワークを活用する。
この新しいネットワークは、Resnetのようなはるかに大きなニューラルネットワークと同様の精度に到達するために、桁違いの計算を使用する。
インクリメンタルな更新方式により,αベータ探索のような深度優先探索手法が大幅に高速化される。
慎重に調整された評価と検索によって、Rapfiは、AlphaZeroのアルゴリズムに基づく最強のオープンソースGomoku AIであるKatagomoを、GPUのようなアクセラレータが欠落している限られた計算リソースの下で超えた。
ラプフィは520人中1位となり、2024年のゴモカップで優勝した。
関連論文リスト
- Semantic-Based Neural Network Repair [4.092001692194709]
本稿では,ニューラルネットワークの自動修復手法を提案する。
私たちのアプローチは、ディープラーニングレイヤの実行可能なセマンティクスに基づいています。
私たちは、自動生成されたニューラルネットワークと、一般的なモデルバグに苦しむ手書きのものを修復する、という2つのユースケースに対するアプローチを評価します。
論文 参考訳(メタデータ) (2023-06-12T16:18:32Z) - Tricking AI chips into Simulating the Human Brain: A Detailed
Performance Analysis [0.5354801701968198]
脳シミュレーションでは、複数の最先端AIチップ(Graphcore IPU、GroqChip、劣悪なCoreを持つNvidia GPU、Google TPU)を評価した。
性能解析の結果,シミュレーション問題はGPUとTPUアーキテクチャに極めてよく対応していることがわかった。
GroqChipは、小さなネットワークにおいて両方のプラットフォームより優れているが、精度の低い浮動小数点演算を実装しているため、脳シミュレーションではまだ利用できない。
論文 参考訳(メタデータ) (2023-01-31T13:51:37Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Some thoughts on catastrophic forgetting and how to learn an algorithm [0.0]
我々は,二進数の追加に対して正しいアルゴリズムを復元するためにトレーニング可能な,異なるアーキテクチャを持つニューラルネットワークを提案する。
ニューラルネットワークは破滅的な忘れ物に苦しむだけでなく、トレーニングが進むにつれて、目に見えない数字の予測能力を向上させる。
論文 参考訳(メタデータ) (2021-08-09T11:12:43Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z) - Efficient Integer-Arithmetic-Only Convolutional Neural Networks [87.01739569518513]
我々は従来のReLUを境界ReLUに置き換え、その減少は活性化量子化によるものであることを示す。
我々の整数ネットワークは、対応するFPNネットワークと同等の性能を発揮するが、メモリコストは1/4に過ぎず、最新のGPUでは2倍高速である。
論文 参考訳(メタデータ) (2020-06-21T08:23:03Z) - Hypernetwork-Based Augmentation [1.6752182911522517]
我々はHypernetwork-based Augmentation (HBA)と呼ばれる効率的な勾配に基づく探索アルゴリズムを提案する。
私たちのHBAはハイパーネットワークを使って人口ベーストレーニングアルゴリズムを近似します。
以上の結果から,HBAは検索速度と精度の両面で最先端の手法と競合することが示された。
論文 参考訳(メタデータ) (2020-06-11T10:36:39Z) - Efficient Computation Reduction in Bayesian Neural Networks Through
Feature Decomposition and Memorization [10.182119276564643]
本稿では,計算コストを削減するため,効率的なBNN推論フローを提案する。
計算の約半分は従来の手法と比べて取り除くことができる。
We implement our approach in Verilog and synthesise it with 45 $nm$ FreePDK technology。
論文 参考訳(メタデータ) (2020-05-08T05:03:04Z) - Automatic Perturbation Analysis for Scalable Certified Robustness and
Beyond [171.07853346630057]
ニューラルネットワークに対する線形緩和に基づく摂動解析(LiRPA)は、堅牢性検証と認証防御のコアコンポーネントとなっている。
我々は任意のニューラルネットワーク構造上で摂動解析を可能にするための自動フレームワークを開発する。
我々は、Tiny ImageNetとDownscaled ImageNetのLiRPAベースの認証防御を実証する。
論文 参考訳(メタデータ) (2020-02-28T18:47:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。