論文の概要: Graph Neural Network based Agent in Google Research Football
- arxiv url: http://arxiv.org/abs/2204.11142v1
- Date: Sat, 23 Apr 2022 21:26:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 12:37:52.188206
- Title: Graph Neural Network based Agent in Google Research Football
- Title(参考訳): Google Research Footballにおけるグラフニューラルネットワークベースのエージェント
- Authors: Yizhan Niu, Jinglong Liu, Yuhao Shi, Jiren Zhu
- Abstract要約: 一部のディープニューラルネットワーク(CNN)は、強化学習の特定の状況下で、十分な情報を抽出したり、入力から十分な特徴を得るのに十分な時間を要することができない。
本稿では,グラフニューラルネットワーク(GNN)をモデルとしたディープラーニングネットワーク(DQN)を提案する。
GNNは入力データをグラフに変換し、選手の位置をよりよく表現し、異なる選手間の相互作用に関する情報を抽出する。
- 参考スコア(独自算出の注目度): 0.5735035463793007
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNN) can approximate value functions or policies for
reinforcement learning, which makes the reinforcement learning algorithms more
powerful. However, some DNNs, such as convolutional neural networks (CNN),
cannot extract enough information or take too long to obtain enough features
from the inputs under specific circumstances of reinforcement learning. For
example, the input data of Google Research Football, a reinforcement learning
environment which trains agents to play football, is the small map of players'
locations. The information is contained not only in the coordinates of players,
but also in the relationships between different players. CNNs can neither
extract enough information nor take too long to train. To address this issue,
this paper proposes a deep q-learning network (DQN) with a graph neural network
(GNN) as its model. The GNN transforms the input data into a graph which better
represents the football players' locations so that it extracts more information
of the interactions between different players. With two GNNs to approximate its
local and target value functions, this DQN allows players to learn from their
experience by using value functions to see the prospective value of each
intended action. The proposed model demonstrated the power of GNN in the
football game by outperforming other DRL models with significantly fewer steps.
- Abstract(参考訳): deep neural networks (dnn)は強化学習のための値関数やポリシーを近似することができ、強化学習アルゴリズムをより強力にする。
しかし、畳み込みニューラルネットワーク(CNN)のような一部のDNNは、強化学習の特定の状況下で入力から十分な情報を抽出したり、十分な特徴を得るのに時間がかかりすぎる。
例えば、Google Research Footballの入力データは、エージェントにサッカーを訓練する強化学習環境であり、選手の位置の小さなマップである。
情報はプレイヤーの座標だけでなく、プレイヤー間の関係にも含まれている。
CNNは十分な情報を抽出することも、トレーニングに時間がかかりすぎることもできない。
本稿では,グラフニューラルネットワーク(gnn)をモデルとした深層q学習ネットワーク(dqn)を提案する。
gnnは入力データをグラフに変換し、サッカー選手の位置をよりよく表現し、異なる選手間の相互作用に関するより多くの情報を抽出する。
2つのGNNが局所的および目標値関数を近似するので、このDQNはプレイヤーが値関数を使用して各アクションの予測値を見ることによって経験から学ぶことができる。
提案モデルは,他のDRLモデルよりも格段に少ないステップで性能を向上することにより,フットボールゲームにおけるGNNのパワーを実証した。
関連論文リスト
- CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - From Images to Connections: Can DQN with GNNs learn the Strategic Game
of Hex? [22.22813915303447]
本稿では,グラフニューラルネットワーク(GNN)が自己再生強化学習において,畳み込みニューラルネットワーク(CNN)を置き換えることができるかどうかを検討する。
GNNはゲーム状態の長期依存状況に対処する上で優れており、過度に適合する傾向が低い。
このことは、ゲーム固有の構造を用いて自己プレイ強化学習を再構築する、潜在的なパラダイムシフトを示唆している。
論文 参考訳(メタデータ) (2023-11-22T14:20:15Z) - Poster: Link between Bias, Node Sensitivity and Long-Tail Distribution
in trained DNNs [12.404169549562523]
長い尾の分布を持つトレーニングデータセットはディープニューラルネットワーク(DNN)に挑戦する
この研究は、異なる出力クラスに対するノードの感度の変化につながるノードバイアスを特定する。
実世界のデータセットでトレーニングされたネットワークの実証的なケーススタディを用いて、推論を支援する。
論文 参考訳(メタデータ) (2023-03-29T10:49:31Z) - Complex Network for Complex Problems: A comparative study of CNN and
Complex-valued CNN [0.0]
複素値畳み込みニューラルネットワーク(CV-CNN)は、複素値入力データの代数構造を保存することができる。
CV-CNNは、トレーニング可能なパラメータの実際の数の観点から、実数値CNNの2倍のトレーニング可能なパラメータを持つ。
本稿では,CNN,CNNx2(CNNの2倍のトレーニングパラメータを持つCNN),CV-CNNの比較検討を行った。
論文 参考訳(メタデータ) (2023-02-09T11:51:46Z) - Wide and Deep Graph Neural Network with Distributed Online Learning [174.8221510182559]
グラフニューラルネットワーク(GNN)は、ネットワークデータから表現を学習するための、自然に分散したアーキテクチャである。
オンライン学習は、この問題を克服するためにテスト時にGNNを再トレーニングするために利用することができる。
本稿では,分散オンライン学習機構で更新可能な新しいアーキテクチャであるWide and Deep GNN(WD-GNN)を開発する。
論文 参考訳(メタデータ) (2021-07-19T23:56:48Z) - Training Graph Neural Networks with 1000 Layers [133.84813995275988]
我々は、GNNのメモリとパラメータ効率を向上させるために、可逆接続、グループ畳み込み、重み付け、平衡モデルについて検討する。
我々の知る限りでは、RevGNN-Deepは文学で最も深いGNNである。
論文 参考訳(メタデータ) (2021-06-14T15:03:00Z) - Graph-Free Knowledge Distillation for Graph Neural Networks [30.38128029453977]
グラフデータのないグラフニューラルネットワークから知識を蒸留する最初の専用アプローチを提案する。
グラフフリーkd (gfkd) は知識伝達のためのグラフトポロジ構造を多項分布でモデル化することで学習する。
グラフデータやGNNにおける様々な種類の事前知識を扱うための戦略を提供する。
論文 参考訳(メタデータ) (2021-05-16T21:38:24Z) - A Practical Tutorial on Graph Neural Networks [49.919443059032226]
グラフニューラルネットワーク(GNN)は、人工知能(AI)分野において最近人気が高まっている。
このチュートリアルでは、GNNのパワーとノベルティをAI実践者に公開している。
論文 参考訳(メタデータ) (2020-10-11T12:36:17Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Wide and Deep Graph Neural Networks with Distributed Online Learning [175.96910854433574]
グラフニューラルネットワーク(GNN)は、自然に分散したアーキテクチャでネットワークデータから表現を学習する。
オンライン学習は、テスト時にGNNを再トレーニングするために使用することができ、この問題を克服することができる。
本稿では,分散オンライン学習機構で容易に更新できる新しいアーキテクチャであるWide and Deep GNN(WD-GNN)を提案する。
論文 参考訳(メタデータ) (2020-06-11T12:48:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。