論文の概要: Finite Group Equivariant Neural Networks for Games
- arxiv url: http://arxiv.org/abs/2009.05027v1
- Date: Thu, 10 Sep 2020 17:46:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 03:02:53.440762
- Title: Finite Group Equivariant Neural Networks for Games
- Title(参考訳): ゲーム用有限群同変ニューラルネットワーク
- Authors: Ois\'in Carroll, Joeran Beel
- Abstract要約: 既存の作業におけるグループ同変CNNは、対称性を利用して学習を改善するネットワークを作成する。
そこで我々はFinite Group Neural Networks (FGNNs)を紹介した。
FGNNは、チェッカー(ドロート)をプレイするネットワークの性能を向上させることが示され、他のゲームや学習問題に容易に適応できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Games such as go, chess and checkers have multiple equivalent game states,
i.e. multiple board positions where symmetrical and opposite moves should be
made. These equivalences are not exploited by current state of the art neural
agents which instead must relearn similar information, thereby wasting
computing time. Group equivariant CNNs in existing work create networks which
can exploit symmetries to improve learning, however, they lack the
expressiveness to correctly reflect the move embeddings necessary for games. We
introduce Finite Group Neural Networks (FGNNs), a method for creating agents
with an innate understanding of these board positions. FGNNs are shown to
improve the performance of networks playing checkers (draughts), and can be
easily adapted to other games and learning problems. Additionally, FGNNs can be
created from existing network architectures. These include, for the first time,
those with skip connections and arbitrary layer types. We demonstrate that an
equivariant version of U-Net (FGNN-U-Net) outperforms the unmodified network in
image segmentation.
- Abstract(参考訳): go、チェス、チェッカーといったゲームは、複数の等価なゲーム状態、すなわち対称と反対の動作をすべき複数のボード位置を持つ。
これらの等価性は、代わりに類似した情報を引き起こさなければならず、計算時間を浪費するアートニューラルエージェントの現在の状態によって利用されない。
既存の作業におけるグループ同変CNNは、対称性を利用して学習を改善するネットワークを作成するが、ゲームに必要な移動埋め込みを正しく反映する表現力に欠ける。
有限群ニューラルネットワーク(fgnns, finite group neural network, fgnns, fgnns)を提案する。
FGNNは、チェッカー(ドロート)をプレイするネットワークの性能を向上させることが示されており、他のゲームや学習問題にも容易に適応できる。
さらに、FGNNは既存のネットワークアーキテクチャから作成することができる。
これらは、初めてスキップ接続と任意のレイヤタイプを持つものを含んでいる。
画像セグメンテーションにおいて,同種のU-Net(FGNN-U-Net)が未修正ネットワークより優れていることを示す。
関連論文リスト
- Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - From Images to Connections: Can DQN with GNNs learn the Strategic Game
of Hex? [22.22813915303447]
本稿では,グラフニューラルネットワーク(GNN)が自己再生強化学習において,畳み込みニューラルネットワーク(CNN)を置き換えることができるかどうかを検討する。
GNNはゲーム状態の長期依存状況に対処する上で優れており、過度に適合する傾向が低い。
このことは、ゲーム固有の構造を用いて自己プレイ強化学習を再構築する、潜在的なパラダイムシフトを示唆している。
論文 参考訳(メタデータ) (2023-11-22T14:20:15Z) - Using Logic Programming and Kernel-Grouping for Improving
Interpretability of Convolutional Neural Networks [1.6317061277457001]
ニューロシンボリック・フレームワークであるNeSyFOLD-GはCNNの最終層カーネルを用いてシンボリック・ルールセットを生成する。
同様のカーネルをグループ化することで,FOLD-SE-Mが生成するルールセットのサイズが大幅に小さくなることを示す。
また,ルールセット内の各述語を,対応するカーネル群が表現する意味概念とラベル付けする新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-19T18:12:49Z) - You Can Have Better Graph Neural Networks by Not Training Weights at
All: Finding Untrained GNNs Tickets [105.24703398193843]
グラフニューラルネットワーク(GNN)の未訓練作業はまだ謎のままだ。
得られた未学習作品によって,GNNの過度なスムース化問題を大幅に軽減できることを示す。
また,そのような未学習作業が,入力摂動の分布外検出と堅牢性に優れていることも観察した。
論文 参考訳(メタデータ) (2022-11-28T14:17:36Z) - A General Framework For Proving The Equivariant Strong Lottery Ticket
Hypothesis [15.376680573592997]
現代のニューラルネットワークは、単なる翻訳対称性以上のものを組み込むことができる。
我々は、Strong Lottery Ticket hypothesis (SLTH) を群$G$の作用を保存する関数に一般化する。
オーバーパラメータ化$textE(2)$-steerable CNNとメッセージパッシングGNNによって、我々の理論を証明します。
論文 参考訳(メタデータ) (2022-06-09T04:40:18Z) - mGNN: Generalizing the Graph Neural Networks to the Multilayer Case [0.0]
我々は,GNNを多層ネットワークに一般化するためのフレームワークであるmGNNを提案する。
我々のアプローチは汎用的であり(タスク固有ではない)、計算オーバーヘッドを伴わずに任意の種類のGNNを拡張するという利点がある。
我々は、このフレームワークを3つの異なるタスク(ノードとネットワークの分類、リンクの予測)に分けて検証する。
論文 参考訳(メタデータ) (2021-09-21T12:02:12Z) - Towards Deeper Graph Neural Networks with Differentiable Group
Normalization [61.20639338417576]
グラフニューラルネットワーク(GNN)は、隣接するノードを集約することでノードの表現を学習する。
オーバースムーシングは、レイヤーの数が増えるにつれてGNNのパフォーマンスが制限される重要な問題のひとつです。
2つのオーバースムースなメトリクスと新しいテクニック、すなわち微分可能群正規化(DGN)を導入する。
論文 参考訳(メタデータ) (2020-06-12T07:18:02Z) - Wide and Deep Graph Neural Networks with Distributed Online Learning [175.96910854433574]
グラフニューラルネットワーク(GNN)は、自然に分散したアーキテクチャでネットワークデータから表現を学習する。
オンライン学習は、テスト時にGNNを再トレーニングするために使用することができ、この問題を克服することができる。
本稿では,分散オンライン学習機構で容易に更新できる新しいアーキテクチャであるWide and Deep GNN(WD-GNN)を提案する。
論文 参考訳(メタデータ) (2020-06-11T12:48:03Z) - EdgeNets:Edge Varying Graph Neural Networks [179.99395949679547]
本稿では、EdgeNetの概念を通じて、最先端グラフニューラルネットワーク(GNN)を統一する一般的なフレームワークを提案する。
EdgeNetはGNNアーキテクチャであり、異なるノードが異なるパラメータを使って異なる隣人の情報を測定することができる。
これは、ノードが実行でき、既存のグラフ畳み込みニューラルネットワーク(GCNN)とグラフアテンションネットワーク(GAT)の1つの定式化の下で包含できる一般的な線形で局所的な操作である。
論文 参考訳(メタデータ) (2020-01-21T15:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。