論文の概要: Causal Counterfactuals for Improving the Robustness of Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2211.05551v3
- Date: Mon, 5 Jun 2023 09:48:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 04:03:38.372613
- Title: Causal Counterfactuals for Improving the Robustness of Reinforcement
Learning
- Title(参考訳): 強化学習のロバスト性向上のための因果対策
- Authors: Tom He, Jasmina Gajcin and Ivana Dusparic
- Abstract要約: 強化学習(Reinforcement Learning, RL)は、様々なロボット応用に用いられる。
CausalCFはCausal CuriosityとCoPhyのアイデアを取り入れた最初の完全Causal RLソリューションである。
- 参考スコア(独自算出の注目度): 2.5266772091832888
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reinforcement learning (RL) is used in various robotic applications. RL
enables agents to learn tasks autonomously by interacting with the environment.
The more critical the tasks are, the higher the demand for the robustness of
the RL systems. Causal RL combines RL and causal inference to make RL more
robust. Causal RL agents use a causal representation to capture the invariant
causal mechanisms that can be transferred from one task to another. Currently,
there is limited research in Causal RL, and existing solutions are usually not
complete or feasible for real-world applications. In this work, we propose
CausalCF, the first complete Causal RL solution incorporating ideas from Causal
Curiosity and CoPhy. Causal Curiosity provides an approach for using
interventions, and CoPhy is modified to enable the RL agent to perform
counterfactuals. Causal Curiosity has been applied to robotic grasping and
manipulation tasks in CausalWorld. CausalWorld provides a realistic simulation
environment based on the TriFinger robot. We apply CausalCF to complex robotic
tasks and show that it improves the RL agent's robustness using CausalWorld.
- Abstract(参考訳): 強化学習(rl)は様々なロボットアプリケーションで使われている。
RLにより、エージェントは環境と対話することでタスクを自律的に学習することができる。
タスクがより重要になるほど、rlシステムの堅牢性に対する要求が高まる。
因果RLはRLと因果推論を組み合わせてRLをより堅牢にする。
因果RLエージェントは因果表現を用いて、あるタスクから別のタスクに転送される不変因果機構をキャプチャする。
現在、因果rlの研究は限られており、既存のソリューションは通常、現実のアプリケーションでは完全あるいは実現不可能である。
本稿ではCausal CuriosityとCoPhyのアイデアを取り入れたCausal RLの最初の完全解であるCausalCFを提案する。
Causal Curiosityは介入のアプローチを提供し、CoPhyはRLエージェントが反ファクト処理を実行できるように修正されている。
Causal CuriosityはCausalWorldにおけるロボットの把握と操作に応用されている。
CausalWorldは、TriFingerロボットに基づく現実的なシミュレーション環境を提供する。
複雑なロボットタスクにCausalCFを適用し,CausalWorldを用いてRLエージェントの堅牢性を向上させることを示す。
関連論文リスト
- Leveraging Reward Consistency for Interpretable Feature Discovery in
Reinforcement Learning [69.19840497497503]
一般的に使われているアクションマッチングの原理は、RLエージェントの解釈よりもディープニューラルネットワーク(DNN)の説明に近いと論じられている。
本稿では,RLエージェントの主目的である報酬を,RLエージェントを解釈する本質的な目的として考察する。
我々は,Atari 2600 ゲームと,挑戦的な自動運転車シミュレータ環境である Duckietown の検証と評価を行った。
論文 参考訳(メタデータ) (2023-09-04T09:09:54Z) - Beyond Tabula Rasa: Reincarnating Reinforcement Learning [37.201451908129386]
タブララ・ラサの学習は、事前の知識がなければ、強化学習(RL)研究における一般的なワークフローである。
我々は、RLエージェントの設計イテレーション間で事前の計算作業を再利用または転送するワークフローとして、RLを再導入する。
既存のアプローチはこの設定で失敗し、それらの制限に対処するための単純なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-03T15:11:10Z) - Automated Reinforcement Learning (AutoRL): A Survey and Open Problems [92.73407630874841]
AutoRL(Automated Reinforcement Learning)には、AutoMLの標準的なアプリケーションだけでなく、RL特有の課題も含まれている。
我々は共通の分類法を提供し、各領域を詳細に議論し、今後の研究者にとって関心のあるオープンな問題を提起する。
論文 参考訳(メタデータ) (2022-01-11T12:41:43Z) - Explore and Control with Adversarial Surprise [78.41972292110967]
強化学習(Reinforcement Learning, RL)は、目標指向のポリシーを学習するためのフレームワークである。
本稿では,RLエージェントが経験した驚きの量と競合する2つのポリシーを相殺する対戦ゲームに基づく,新しい教師なしRL手法を提案する。
本手法は, 明確な相転移を示すことによって, 複雑なスキルの出現につながることを示す。
論文 参考訳(メタデータ) (2021-07-12T17:58:40Z) - Combining Pessimism with Optimism for Robust and Efficient Model-Based
Deep Reinforcement Learning [56.17667147101263]
実世界のタスクでは、強化学習エージェントはトレーニング中に存在しない状況に遭遇する。
信頼性を確保するため、RLエージェントは最悪の状況に対して堅牢性を示す必要がある。
本稿では,Robust Hallucinated Upper-Confidence RL (RH-UCRL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-18T16:50:17Z) - Maximum Entropy RL (Provably) Solves Some Robust RL Problems [94.80212602202518]
我々は、標準最大エントロピーRLが動的および報酬関数のいくつかの障害に対して堅牢であることを理論的に証明する。
以上の結果から,MaxEnt RL自体が特定の障害に対して頑健であり,追加の修正は不要であることが示唆された。
論文 参考訳(メタデータ) (2021-03-10T18:45:48Z) - How to Train Your Robot with Deep Reinforcement Learning; Lessons We've
Learned [111.06812202454364]
本稿では,ロボット深部RLのケーススタディをいくつか紹介する。
深部RLにおける一般的な課題と,それらの課題について論じる。
また、他の卓越した課題についても概説し、その多くが現実世界のロボティクスの設定に特有のものである。
論文 参考訳(メタデータ) (2021-02-04T22:09:28Z) - Auto-Agent-Distiller: Towards Efficient Deep Reinforcement Learning
Agents via Neural Architecture Search [14.292072505007974]
本稿では,様々なタスクに対して最適なDRLエージェントを自動検索するAuto-Agent-Distiller (A2D) フレームワークを提案する。
我々は,バニラNASがDRLトレーニング安定性のばらつきが大きいため,最適なエージェントの探索に容易に失敗できることを実証した。
そこで我々は,教師エージェントのアクターと評論家の両方から知識を抽出し,探索プロセスを安定化し,探索エージェントの最適性を向上する新しい蒸留機構を開発する。
論文 参考訳(メタデータ) (2020-12-24T04:07:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。