論文の概要: Reinforcement Learning on Graph: A Survey
- arxiv url: http://arxiv.org/abs/2204.06127v1
- Date: Wed, 13 Apr 2022 01:25:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-14 13:45:14.505942
- Title: Reinforcement Learning on Graph: A Survey
- Title(参考訳): グラフによる強化学習:調査
- Authors: Nie Mingshuo, Chen Dongming, Wang Dongqi
- Abstract要約: 我々は、RLモデルの概要とグラフマイニングについて概観し、これらのアルゴリズムをグラフ強化学習(GRL)に一般化する。
本稿では,GRLメソッドの様々な領域にわたる適用について論じるとともに,GRLメソッドのメソッド記述,オープンソースコード,ベンチマークデータセットについて概説する。
今後解決すべき重要な方向性と課題を提案する。
- 参考スコア(独自算出の注目度): 0.3867363075280544
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Graph mining tasks arise from many different application domains, ranging
from social networks, transportation, E-commerce, etc., which have been
receiving great attention from the theoretical and algorithm design communities
in recent years, and there has been some pioneering work using the hotly
researched reinforcement learning (RL) techniques to address graph data mining
tasks. However, these graph mining algorithms and RL models are dispersed in
different research areas, which makes it hard to compare different algorithms
with each other. In this survey, we provide a comprehensive overview of RL
models and graph mining and generalize these algorithms to Graph Reinforcement
Learning (GRL) as a unified formulation. We further discuss the applications of
GRL methods across various domains and summarize the method description,
open-source codes, and benchmark datasets of GRL methods. Finally, we propose
possible important directions and challenges to be solved in the future. This
is the latest work on a comprehensive survey of GRL literature, and this work
provides a global view for researchers as well as a learning resource for
researchers outside the domain. In addition, we create an online open-source
for both interested researchers who want to enter this rapidly developing
domain and experts who would like to compare GRL methods.
- Abstract(参考訳): グラフマイニングのタスクは、近年、理論およびアルゴリズム設計コミュニティから注目を集めているソーシャルネットワーク、輸送、電子商取引など、多くの異なるアプリケーションドメインから生まれており、グラフデータマイニングタスクに対処するために、ホットリーリサーチ強化学習(rl)技術を用いた先駆的な作業がいくつかある。
しかし、これらのグラフマイニングアルゴリズムとRLモデルは異なる研究領域に分散しており、異なるアルゴリズムを互いに比較することは困難である。
本稿では、RLモデルの概要とグラフマイニングについて概説し、これらのアルゴリズムを統一的な定式化としてグラフ強化学習(GRL)に一般化する。
さらに,各領域にわたるGRLメソッドの適用について論じ,GRLメソッドのメソッド記述,オープンソースコード,ベンチマークデータセットを要約する。
最後に,今後解決すべき重要な方向性と課題を提案する。
これはGRL文献の総合的な調査に関する最新の研究であり、この研究は、研究者のグローバルな展望と、ドメイン外の研究者の学習リソースを提供する。
さらに、この急速に発展しているドメインに参入したい研究者と、grrメソッドを比較したい専門家の両方のために、オンラインオープンソースを作成します。
関連論文リスト
- Generative AI for Deep Reinforcement Learning: Framework, Analysis, and Use Cases [60.30995339585003]
深部強化学習(DRL)は様々な分野に広く適用されており、優れた成果を上げている。
DRLは、サンプル効率の低下や一般化の低さなど、いくつかの制限に直面している。
本稿では、これらの問題に対処し、DRLアルゴリズムの性能を向上させるために、生成AI(GAI)を活用する方法について述べる。
論文 参考訳(メタデータ) (2024-05-31T01:25:40Z) - Bridging Evolutionary Algorithms and Reinforcement Learning: A Comprehensive Survey on Hybrid Algorithms [50.91348344666895]
進化的強化学習(ERL)は進化的アルゴリズム(EA)と強化学習(RL)を統合して最適化する。
本調査では,ERLの多様な研究分野について概観する。
論文 参考訳(メタデータ) (2024-01-22T14:06:37Z) - The Efficiency Spectrum of Large Language Models: An Algorithmic Survey [54.19942426544731]
LLM(Large Language Models)の急速な成長は、様々なドメインを変換する原動力となっている。
本稿では,LLMのエンドツーエンドのアルゴリズム開発に不可欠な多面的効率性について検討する。
論文 参考訳(メタデータ) (2023-12-01T16:00:25Z) - Ensemble Reinforcement Learning: A Survey [43.17635633600716]
強化学習(Reinforcement Learning, RL)は, 様々な科学的, 応用的な問題に対処するための, 極めて効果的な手法として登場した。
これに対し, アンサンブル強化学習(ERL)は, RLとアンサンブル学習(EL)の両方の利点を組み合わせた有望なアプローチであり, 広く普及している。
ERLは複数のモデルやトレーニングアルゴリズムを活用して、問題空間を包括的に探索し、強力な一般化能力を持つ。
論文 参考訳(メタデータ) (2023-03-05T09:26:44Z) - A Survey of Meta-Reinforcement Learning [69.76165430793571]
我々は,メタRLと呼ばれるプロセスにおいて,機械学習問題自体として,より優れたRLアルゴリズムを開発した。
本稿では,タスク分布の存在と各タスクに利用可能な学習予算に基づいて,高レベルでメタRL研究をクラスタ化する方法について議論する。
RL実践者のための標準ツールボックスにメタRLを組み込むことの道程について,オープンな問題を提示することによって,結論を下す。
論文 参考訳(メタデータ) (2023-01-19T12:01:41Z) - Research Trends and Applications of Data Augmentation Algorithms [77.34726150561087]
我々は,データ拡張アルゴリズムの適用分野,使用するアルゴリズムの種類,重要な研究動向,時間経過に伴う研究の進展,およびデータ拡張文学における研究ギャップを同定する。
我々は、読者がデータ拡張の可能性を理解し、将来の研究方向を特定し、データ拡張研究の中で質問を開くことを期待する。
論文 参考訳(メタデータ) (2022-07-18T11:38:32Z) - Challenges and Opportunities in Deep Reinforcement Learning with Graph
Neural Networks: A Comprehensive review of Algorithms and Applications [1.4099477870728594]
近年,グラフ構造化環境におけるGNNとDRLの融合が注目されている。
本稿では,これらのハイブリッド作品について概観する。
論文 参考訳(メタデータ) (2022-06-16T04:52:22Z) - A Survey on Offline Reinforcement Learning: Taxonomy, Review, and Open
Problems [0.0]
強化学習(RL)は、急速に人気が高まっている。
高いコストと環境との相互作用の危険性のため、RLにはアクセスできない領域がまだ広い範囲にある。
オフラインRLは、以前に収集されたインタラクションの静的データセットからのみ学習するパラダイムである。
論文 参考訳(メタデータ) (2022-03-02T20:05:11Z) - RL Unplugged: A Suite of Benchmarks for Offline Reinforcement Learning [108.9599280270704]
オフラインのRL手法を評価・比較するためのRL Unpluggedというベンチマークを提案する。
RL Unpluggedにはゲームやシミュレートされたモーター制御問題を含むさまざまな領域のデータが含まれている。
本論文で提示した全タスクのデータと,全アルゴリズムをオープンソースとして公開する。
論文 参考訳(メタデータ) (2020-06-24T17:14:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。