論文の概要: Reward Propagation Using Graph Convolutional Networks
- arxiv url: http://arxiv.org/abs/2010.02474v2
- Date: Mon, 2 Nov 2020 02:37:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 05:36:38.078079
- Title: Reward Propagation Using Graph Convolutional Networks
- Title(参考訳): グラフ畳み込みネットワークを用いた報酬伝播
- Authors: Martin Klissarov and Doina Precup
- Abstract要約: 本稿では,グラフ表現学習のアイデアを活用した潜在機能学習フレームワークを提案する。
我々のアプローチは、強化学習の確率論的推論と組み合わせて、重要な要素として使用するグラフ畳み込みネットワークに依存している。
- 参考スコア(独自算出の注目度): 61.32891095232801
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Potential-based reward shaping provides an approach for designing good reward
functions, with the purpose of speeding up learning. However, automatically
finding potential functions for complex environments is a difficult problem (in
fact, of the same difficulty as learning a value function from scratch). We
propose a new framework for learning potential functions by leveraging ideas
from graph representation learning. Our approach relies on Graph Convolutional
Networks which we use as a key ingredient in combination with the probabilistic
inference view of reinforcement learning. More precisely, we leverage Graph
Convolutional Networks to perform message passing from rewarding states. The
propagated messages can then be used as potential functions for reward shaping
to accelerate learning. We verify empirically that our approach can achieve
considerable improvements in both small and high-dimensional control problems.
- Abstract(参考訳): ポテンシャルに基づく報酬形成は、学習のスピードアップを目的として、優れた報酬関数を設計するためのアプローチを提供する。
しかし、複雑な環境でのポテンシャル関数の自動発見は難しい問題である(実際には、値関数をスクラッチから学習するのと同じ困難さ)。
本稿では,グラフ表現学習のアイデアを活用した潜在機能学習フレームワークを提案する。
本手法は,強化学習の確率的推論と組み合わせて,重要な要素として使用するグラフ畳み込みネットワークに依存している。
より正確には、グラフ畳み込みネットワークを利用して報奨状態からメッセージパッシングを行う。
伝達されたメッセージは、学習を加速するために報酬形成の潜在的な機能として使用できる。
我々は,本手法が小・高次元の制御問題において,大幅な改善を達成できることを実証的に検証した。
関連論文リスト
- Joint Feature and Differentiable $ k $-NN Graph Learning using Dirichlet
Energy [103.74640329539389]
特徴選択と識別可能な$k $-NNグラフ学習を同時に行うディープFS法を提案する。
我々は、ニューラルネットワークで$ k $-NNグラフを学習する際の非微分可能性問題に対処するために、最適輸送理論を用いる。
本モデルの有効性を,合成データセットと実世界のデータセットの両方で広範な実験により検証する。
論文 参考訳(メタデータ) (2023-05-21T08:15:55Z) - Generative Flow Networks for Precise Reward-Oriented Active Learning on
Graphs [34.76241250013461]
本稿では,グラフ能動学習問題をGFlowGNNと呼ばれる生成過程として定式化し,逐次動作によって様々なサンプルを生成する。
提案手法は,様々な最先端手法よりも優れた探索能力と伝達性を有することを示す。
論文 参考訳(メタデータ) (2023-04-24T10:47:08Z) - GIF: A General Graph Unlearning Strategy via Influence Function [63.52038638220563]
Graph Influence Function (GIF)は、削除されたデータにおける$epsilon$-massの摂動に応答してパラメータの変化を効率的に正確に推定できる、モデルに依存しない未学習の手法である。
我々は,4つの代表的GNNモデルと3つのベンチマークデータセットについて広範な実験を行い,未学習の有効性,モデルの有用性,未学習効率の観点からGIFの優位性を正当化する。
論文 参考訳(メタデータ) (2023-04-06T03:02:54Z) - Learnable Graph Convolutional Network and Feature Fusion for Multi-view
Learning [30.74535386745822]
本稿では,Learningable Graph Convolutional Network and Feature Fusion (LGCN-FF) と呼ばれる統合ディープラーニングフレームワークを提案する。
特徴融合ネットワークと学習可能なグラフ畳み込みネットワークの2つのステージで構成されている。
提案したLGCN-FFは,多視点半教師付き分類において,様々な最先端手法よりも優れていることが検証された。
論文 参考訳(メタデータ) (2022-11-16T19:07:12Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Potential-based Reward Shaping in Sokoban [5.563631490799427]
本研究では,ソコバンにおける報酬形成の潜在関数を探索アルゴリズム(A*)で自動生成できるかどうかを検討する。
その結果,字型報酬関数による学習は,スクラッチから学習するよりも速いことがわかった。
その結果,距離関数はソコバンに適した関数である可能性が示唆された。
論文 参考訳(メタデータ) (2021-09-10T06:28:09Z) - xRAI: Explainable Representations through AI [10.345196226375455]
本稿では,ニューラルネットワークがトレーニングしたネットワークから学習すべき数学的関数の記号表現を抽出する手法を提案する。
このアプローチは、訓練されたネットワークの重みとバイアスを入力として受信し、ネットワークが直接シンボリック表現に変換できる学習すべき関数の数値表現を出力する、いわゆる解釈ネットワークを訓練するというアイデアに基づいています。
論文 参考訳(メタデータ) (2020-12-10T22:49:29Z) - Graph-Based Neural Network Models with Multiple Self-Supervised
Auxiliary Tasks [79.28094304325116]
グラフ畳み込みネットワークは、構造化されたデータポイント間の関係をキャプチャするための最も有望なアプローチである。
マルチタスク方式でグラフベースニューラルネットワークモデルを学習するための3つの新しい自己教師付き補助タスクを提案する。
論文 参考訳(メタデータ) (2020-11-14T11:09:51Z) - Geometrically Principled Connections in Graph Neural Networks [66.51286736506658]
我々は、幾何学的深層学習の新興分野におけるイノベーションの原動力は、幾何が依然として主要な推進力であるべきだと論じている。
グラフニューラルネットワークとコンピュータグラフィックスとデータ近似モデルとの関係:放射基底関数(RBF)
完全連結層とグラフ畳み込み演算子を組み合わせた新しいビルディングブロックであるアフィンスキップ接続を導入する。
論文 参考訳(メタデータ) (2020-04-06T13:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。