論文の概要: Continuous Neural Algorithmic Planners
- arxiv url: http://arxiv.org/abs/2211.15839v1
- Date: Tue, 29 Nov 2022 00:19:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 15:01:00.886084
- Title: Continuous Neural Algorithmic Planners
- Title(参考訳): 連続神経アルゴリズムプランナー
- Authors: Yu He, Petar Veli\v{c}kovi\'c, Pietro Li\`o, Andreea Deac
- Abstract要約: XLVINは、深層強化学習エージェントの値アルゴリズムをシミュレートするグラフニューラルネットワークである。
環境に関する特権情報にアクセスせずに、モデルフリーのイテレーションプランニングを可能にする。
ニューラルネットワークによる推論が高次元連続制御設定にどのように影響するかを示す。
- 参考スコア(独自算出の注目度): 3.9715120586766584
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural algorithmic reasoning studies the problem of learning algorithms with
neural networks, especially with graph architectures. A recent proposal, XLVIN,
reaps the benefits of using a graph neural network that simulates the value
iteration algorithm in deep reinforcement learning agents. It allows model-free
planning without access to privileged information about the environment, which
is usually unavailable. However, XLVIN only supports discrete action spaces,
and is hence nontrivially applicable to most tasks of real-world interest. We
expand XLVIN to continuous action spaces by discretization, and evaluate
several selective expansion policies to deal with the large planning graphs.
Our proposal, CNAP, demonstrates how neural algorithmic reasoning can make a
measurable impact in higher-dimensional continuous control settings, such as
MuJoCo, bringing gains in low-data settings and outperforming model-free
baselines.
- Abstract(参考訳): ニューラルネットワーク推論は、ニューラルネットワーク、特にグラフアーキテクチャによる学習アルゴリズムの問題を研究する。
最近の提案であるXLVINは、深層強化学習エージェントの値反復アルゴリズムをシミュレートするグラフニューラルネットワークを使用することのメリットを享受している。
これは、通常利用できない環境に関する特権情報にアクセスせずに、モデルフリーの計画を可能にする。
しかし、xlvin は離散作用空間のみをサポートし、従って実世界の関心のあるほとんどのタスクに非自明に適用できる。
我々は,xlvinを離散化により連続的な行動空間に拡張し,大規模計画グラフを扱うためのいくつかの選択的拡張ポリシーを評価する。
我々の提案であるCNAPは、MuJoCoのような高次元連続制御設定において、ニューラルネットワーク推論が測定可能な影響をいかに生み出すかを示し、低データ設定やモデルフリーベースラインよりも優れている。
関連論文リスト
- Decision-focused Graph Neural Networks for Combinatorial Optimization [62.34623670845006]
最適化問題に取り組むための新たな戦略は、従来のアルゴリズムに代わるグラフニューラルネットワーク(GNN)の採用である。
GNNや従来のアルゴリズムソルバがCOの領域で人気が高まっているにもかかわらず、それらの統合利用とエンドツーエンドフレームワークにおけるそれらの相関について限定的な研究がなされている。
我々は、GNNを利用してCO問題に補助的なサポートで対処する決定に焦点を当てたフレームワークを導入する。
論文 参考訳(メタデータ) (2024-06-05T22:52:27Z) - Can Graph Learning Improve Planning in LLM-based Agents? [61.47027387839096]
言語エージェントにおけるタスクプランニングは、大規模言語モデル(LLM)の開発とともに重要な研究トピックとして浮上している。
本稿では,課題計画のためのグラフ学習に基づく手法について検討する。
我々のグラフ学習への関心は、注意のバイアスと自己回帰的損失が、グラフ上の意思決定を効果的にナビゲートするLLMの能力を妨げているという理論的な発見に起因している。
論文 参考訳(メタデータ) (2024-05-29T14:26:24Z) - Proximal Mean Field Learning in Shallow Neural Networks [0.4972323953932129]
無限幅の単一の隠蔽層を有する浅層ニューラルネットワークのための独自の学習アルゴリズムを提案する。
解析ツールとしてではなく,計算アルゴリズムとして,平均場学習を実現する。
本アルゴリズムはリスク関数に関連する自由エネルギーの勾配降下を行う。
論文 参考訳(メタデータ) (2022-10-25T10:06:26Z) - Neural Algorithmic Reasoners are Implicit Planners [17.6650448492151]
価値反復にインスパイアされた暗黙のプランナーのクラスを研究します。
提案手法は,高次元潜在空間における全ての計画計算を実行する。
XLVINsがバリューイテレーションと密接に一致できることを実証的に検証します。
論文 参考訳(メタデータ) (2021-10-11T17:29:20Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - XLVIN: eXecuted Latent Value Iteration Nets [17.535799331279417]
VIN(Value Iteration Networks)は、深い強化学習に計画アルゴリズムを組み込む一般的な手法として登場した。
提案するXLVINは, 対照的な自己教師付き学習, グラフ表現学習, ニューラルアルゴリズム推論にまたがる最近の発展を総合して提案する。
論文 参考訳(メタデータ) (2020-10-25T16:04:30Z) - Graph neural induction of value iteration [22.582832003418826]
任意の環境モデルにまたがって、VIの中間ステップを直接監督する値反復(VI)アルゴリズムを実行するグラフニューラルネットワーク(GNN)を提案する。
結果は、GNNが様々なアウト・オブ・ディストリビューションテストで好適なメトリクスとポリシーを回収し、価値の反復を正確にモデル化できることを示唆している。
論文 参考訳(メタデータ) (2020-09-26T14:09:16Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z) - Graph Ordering: Towards the Optimal by Learning [69.72656588714155]
グラフ表現学習は、ノード分類、予測、コミュニティ検出など、多くのグラフベースのアプリケーションで顕著な成功を収めている。
しかし,グラフ圧縮やエッジ分割などのグラフアプリケーションでは,グラフ表現学習タスクに還元することは極めて困難である。
本稿では,このようなアプリケーションの背後にあるグラフ順序付け問題に対して,新しい学習手法を用いて対処することを提案する。
論文 参考訳(メタデータ) (2020-01-18T09:14:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。