論文の概要: What Matters in Reinforcement Learning for Tractography
- arxiv url: http://arxiv.org/abs/2305.09041v2
- Date: Wed, 17 May 2023 19:30:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 10:34:01.616259
- Title: What Matters in Reinforcement Learning for Tractography
- Title(参考訳): トレーサグラフィにおける強化学習の意義
- Authors: Antoine Th\'eberge, Christian Desrosiers, Maxime Descoteaux,
Pierre-Marc Jodoin
- Abstract要約: 深部強化学習(RL)は,手作業による基準流路の整備を行なわずに,白質の構造を再構築するためのトラクトグラフィー法と訓練薬を学習するために提案されている。
RLアルゴリズムの選択,シード戦略,入力信号と報酬関数など,提案するフレームワークのさまざまなコンポーネントを徹底的に検討し,その影響について光を当てる。
本稿では,RLアルゴリズムの選択,エージェントへの入力,報酬関数などに関する一連の勧告を提案する。
- 参考スコア(独自算出の注目度): 12.940129711489005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, deep reinforcement learning (RL) has been proposed to learn the
tractography procedure and train agents to reconstruct the structure of the
white matter without manually curated reference streamlines. While the
performances reported were competitive, the proposed framework is complex, and
little is still known about the role and impact of its multiple parts. In this
work, we thoroughly explore the different components of the proposed framework,
such as the choice of the RL algorithm, seeding strategy, the input signal and
reward function, and shed light on their impact. Approximately 7,400 models
were trained for this work, totalling nearly 41,000 hours of GPU time. Our goal
is to guide researchers eager to explore the possibilities of deep RL for
tractography by exposing what works and what does not work with the category of
approach. As such, we ultimately propose a series of recommendations concerning
the choice of RL algorithm, the input to the agents, the reward function and
more to help future work using reinforcement learning for tractography. We also
release the open source codebase, trained models, and datasets for users and
researchers wanting to explore reinforcement learning for tractography.
- Abstract(参考訳): 近年,手作業による基準流路の整備を行なわずに白質の構造を再構築するためのトラクトグラフィー法と訓練薬の学習のために深部強化学習(RL)が提案されている。
報告されたパフォーマンスは競争力があったが、提案されたフレームワークは複雑であり、その複数の部分の役割と影響についてはほとんど分かっていない。
本研究では,RLアルゴリズムの選択,シード戦略,入力信号,報酬関数など,提案するフレームワークのさまざまなコンポーネントを徹底的に検討し,その影響について光を当てる。
この作業のために約7,400台のモデルがトレーニングされ、gpu時間は約41,000時間であった。
我々のゴールは、どの領域で何が機能し、何がうまくいかなかったかを明らかにすることで、トラクトログラフィーのための深部RLの可能性を探究する研究者を指導することである。
そこで我々は最終的に,RLアルゴリズムの選択,エージェントへの入力,報酬関数などに関する一連の勧告を提案し,トラクトログラフィの強化学習による今後の作業を支援する。
トラクトログラフィのための強化学習を探求したいユーザや研究者のために、オープンソースのコードベース、トレーニングされたモデル、データセットもリリースしています。
関連論文リスト
- Technical Report: Enhancing LLM Reasoning with Reward-guided Tree Search [95.06503095273395]
o1のような推論アプローチは困難で、研究者はこのオープンな研究領域を前進させようとさまざまな試みを行ってきた。
本稿では,報酬誘導木探索アルゴリズムを用いて,LLMの推論能力を高めるための予備的な検討を行う。
論文 参考訳(メタデータ) (2024-11-18T16:15:17Z) - RLeXplore: Accelerating Research in Intrinsically-Motivated Reinforcement Learning [50.55776190278426]
外部報酬は、特定のタスクにおける強化学習(RL)エージェントを効果的に導くことができる。
RLeXploreは,8つの最先端固有の報酬アルゴリズムの信頼性を実現する,統一的で高度にモジュール化されたプラグイン・アンド・プレイフレームワークである。
論文 参考訳(メタデータ) (2024-05-29T22:23:20Z) - Leveraging Optimal Transport for Enhanced Offline Reinforcement Learning
in Surgical Robotic Environments [4.2569494803130565]
我々は,少数の高品質な専門家によるデモンストレーションを用いて,オフラインの軌道に報酬を割り当てるための革新的なアルゴリズムを導入する。
このアプローチは、手作りの報酬の必要性を回避し、ポリシー学習に膨大なデータセットを活用する可能性を解き放つ。
論文 参考訳(メタデータ) (2023-10-13T03:39:15Z) - Implicit Offline Reinforcement Learning via Supervised Learning [83.8241505499762]
監視学習によるオフライン強化学習(RL)は、さまざまな専門レベルのポリシーによって収集されたデータセットからロボットスキルを学ぶための、シンプルで効果的な方法である。
我々は、暗黙的なモデルが返却情報を利用して、固定されたデータセットからロボットスキルを取得するために、明示的なアルゴリズムにマッチするか、あるいは性能を向上するかを示す。
論文 参考訳(メタデータ) (2022-10-21T21:59:42Z) - Reinforcement Learning for Branch-and-Bound Optimisation using
Retrospective Trajectories [72.15369769265398]
機械学習は分岐のための有望なパラダイムとして登場した。
分岐のための単純かつ効果的なRLアプローチであるレトロ分岐を提案する。
我々は現在最先端のRL分岐アルゴリズムを3~5倍に上回り、500の制約と1000の変数を持つMILP上での最高のILメソッドの性能の20%以内である。
論文 参考訳(メタデータ) (2022-05-28T06:08:07Z) - Reinforcement Learning on Graph: A Survey [0.3867363075280544]
我々は、RLモデルの概要とグラフマイニングについて概観し、これらのアルゴリズムをグラフ強化学習(GRL)に一般化する。
本稿では,GRLメソッドの様々な領域にわたる適用について論じるとともに,GRLメソッドのメソッド記述,オープンソースコード,ベンチマークデータセットについて概説する。
今後解決すべき重要な方向性と課題を提案する。
論文 参考訳(メタデータ) (2022-04-13T01:25:58Z) - Jump-Start Reinforcement Learning [68.82380421479675]
本稿では、オフラインデータやデモ、あるいは既存のポリシーを使ってRLポリシーを初期化するメタアルゴリズムを提案する。
特に,タスク解決に2つのポリシーを利用するアルゴリズムであるJump-Start Reinforcement Learning (JSRL)を提案する。
実験により、JSRLは既存の模倣と強化学習アルゴリズムを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-04-05T17:25:22Z) - The Challenges of Exploration for Offline Reinforcement Learning [8.484491887821473]
本稿では,情報的経験の収集と最適な行動の推測という,強化学習の2つのプロセスについて考察する。
データ収集のタスクに依存しない設定は、タスクが優先順位を分かっていないが、特に興味がある。
我々は、この分離されたフレームワークを使用して、探索に関する直感と効果的なオフラインRLのためのデータ前提条件を強化する。
論文 参考訳(メタデータ) (2022-01-27T23:59:56Z) - Distributed Deep Reinforcement Learning: An Overview [0.0]
本稿では,DRLにおける分散アプローチの役割について調査する。
本稿では,DRLにおける分散手法の活用方法に大きな影響を与える重要な研究成果について概説する。
また,これらの手法を異なるタスクで評価し,その性能を1人のアクターと学習者エージェントで比較する。
論文 参考訳(メタデータ) (2020-11-22T13:24:35Z) - Reannealing of Decaying Exploration Based On Heuristic Measure in Deep
Q-Network [82.20059754270302]
本稿では,再熱処理の概念に基づくアルゴリズムを提案し,必要なときにのみ探索を促進することを目的とする。
我々は、訓練を加速し、より良い政策を得る可能性を示す実証的なケーススタディを実施している。
論文 参考訳(メタデータ) (2020-09-29T20:40:00Z) - PBCS : Efficient Exploration and Exploitation Using a Synergy between
Reinforcement Learning and Motion Planning [8.176152440971897]
「プラン、バックプレイ、チェインスキル」は、運動計画と強化学習を組み合わせてハード探索環境を解決している。
本手法は, 様々な大きさの2次元迷路環境において, 最先端のRLアルゴリズムより優れていることを示す。
論文 参考訳(メタデータ) (2020-04-24T11:37:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。