論文の概要: Causal Navigation by Continuous-time Neural Networks
- arxiv url: http://arxiv.org/abs/2106.08314v1
- Date: Tue, 15 Jun 2021 17:45:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-16 15:57:29.350285
- Title: Causal Navigation by Continuous-time Neural Networks
- Title(参考訳): 連続時間ニューラルネットワークによる因果ナビゲーション
- Authors: Charles Vorbach, Ramin Hasani, Alexander Amini, Mathias Lechner,
Daniela Rus
- Abstract要約: 本研究では,連続時間ニューラルネットワークを用いた因果表現学習のための理論的,実験的枠組みを提案する。
本手法は,ドローンの視覚制御学習の文脈において,一連の複雑なタスクにおいて評価する。
- 参考スコア(独自算出の注目度): 108.84958284162857
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Imitation learning enables high-fidelity, vision-based learning of policies
within rich, photorealistic environments. However, such techniques often rely
on traditional discrete-time neural models and face difficulties in
generalizing to domain shifts by failing to account for the causal
relationships between the agent and the environment. In this paper, we propose
a theoretical and experimental framework for learning causal representations
using continuous-time neural networks, specifically over their discrete-time
counterparts. We evaluate our method in the context of visual-control learning
of drones over a series of complex tasks, ranging from short- and long-term
navigation, to chasing static and dynamic objects through photorealistic
environments. Our results demonstrate that causal continuous-time deep models
can perform robust navigation tasks, where advanced recurrent models fail.
These models learn complex causal control representations directly from raw
visual inputs and scale to solve a variety of tasks using imitation learning.
- Abstract(参考訳): 模倣学習は、リッチでフォトリアリスティックな環境におけるポリシーの高忠実で視覚に基づく学習を可能にする。
しかしながら、そのような手法は伝統的な離散時間ニューラルモデルに依存し、エージェントと環境の間の因果関係を考慮せず、ドメインシフトを一般化する際の困難に直面している。
本稿では,連続時間ニューラルネットワークを用いて因果表現を学習するための理論的,実験的枠組みを提案する。
本手法は,短期および長期のナビゲーションから,フォトリアリスティックな環境を通じて静的および動的物体の追跡まで,複雑なタスクを通してドローンの視覚制御学習の文脈で評価する。
その結果、因果的連続時間深度モデルでは、先進的な再帰モデルが失敗する堅牢なナビゲーションタスクが実行可能であることが示された。
これらのモデルは、生の視覚入力から直接複雑な因果制御表現を学習し、模倣学習を用いて様々なタスクを解く。
関連論文リスト
- Continual Learning of Conjugated Visual Representations through Higher-order Motion Flows [21.17248975377718]
ニューラルネットワークによる学習は、データの非i.d.な性質のため、いくつかの課題を提示している。
また、情報の流れに整合した表現を開発する新しい機会を提供する。
本稿では,複数動作による制約を受ける画素ワイド特徴の教師なし連続学習の事例について検討する。
論文 参考訳(メタデータ) (2024-09-16T19:08:32Z) - A Role of Environmental Complexity on Representation Learning in Deep Reinforcement Learning Agents [3.7314353481448337]
我々は、深層強化学習エージェントを訓練するためのシミュレーションナビゲーション環境を開発した。
ショートカットおよびナビゲーションキューへの露出頻度を変調し,異なる能力を有する人工エージェントの開発に繋がった。
これらのエージェントを駆動する人工ニューラルネットワークの符号化表現について検討し、表現学習における複雑なダイナミクスを明らかにした。
論文 参考訳(メタデータ) (2024-07-03T18:27:26Z) - Generative learning for nonlinear dynamics [7.6146285961466]
生成機械学習モデルは、トレーニングデータを超えて、現実的なアウトプットを生成します。
これらの成功は、生成モデルが任意の複雑な分布を効果的にパラメータ化し、サンプリングすることを学ぶことを示唆している。
我々は,これらの古典作品と大規模生成統計学習の新たなテーマを結びつけることを目的としている。
論文 参考訳(メタデータ) (2023-11-07T16:53:56Z) - Interpretable Computer Vision Models through Adversarial Training:
Unveiling the Robustness-Interpretability Connection [0.0]
解釈可能性は、モデルを現実世界にデプロイする際には、堅牢性と同じくらい不可欠です。
標準モデルは、ロバストと比較して敵の攻撃に対してより感受性が高く、その学習された表現は人間にはあまり意味がない。
論文 参考訳(メタデータ) (2023-07-04T13:51:55Z) - Do We Need an Encoder-Decoder to Model Dynamical Systems on Networks? [18.92828441607381]
埋め込みは観察によく適合するが、同時に誤った動的挙動を持つモデルを誘導することを示す。
2つの加法的ベクトル場成分をパラメトリした単純な埋め込み自由な代替法を提案する。
論文 参考訳(メタデータ) (2023-05-20T12:41:47Z) - Predictive Experience Replay for Continual Visual Control and
Forecasting [62.06183102362871]
視覚力学モデリングのための新しい連続学習手法を提案し,その視覚制御と予測における有効性について検討する。
まず,タスク固有のダイナミクスをガウスの混合で学習する混合世界モデルを提案し,その上で,破滅的な忘れを克服するための新たなトレーニング戦略を提案する。
我々のモデルは,DeepMind Control と Meta-World のベンチマークにおいて,既存の連続的学習アルゴリズムと視覚的RLアルゴリズムの単純な組み合わせよりも優れている。
論文 参考訳(メタデータ) (2023-03-12T05:08:03Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Learning Contact Dynamics using Physically Structured Neural Networks [81.73947303886753]
ディープニューラルネットワークと微分方程式の接続を用いて、オブジェクト間の接触ダイナミクスを表現するディープネットワークアーキテクチャのファミリを設計する。
これらのネットワークは,ノイズ観測から不連続な接触事象をデータ効率良く学習できることを示す。
以上の結果から,タッチフィードバックの理想化形態は,この学習課題を扱いやすくするための重要な要素であることが示唆された。
論文 参考訳(メタデータ) (2021-02-22T17:33:51Z) - Learning Temporal Dynamics from Cycles in Narrated Video [85.89096034281694]
時が経つにつれて世界がどのように変化するかをモデル化する学習問題に対する自己監督型ソリューションを提案します。
私たちのモデルは、前方および後方の時間を予測するためにモダリティに依存しない関数を学習します。
将来的な動作の予測や画像の時間的順序付けなど,様々なタスクに対して,学習されたダイナミクスモデルを適用する。
論文 参考訳(メタデータ) (2021-01-07T02:41:32Z) - Goal-Aware Prediction: Learning to Model What Matters [105.43098326577434]
学習した前進力学モデルを使用する際の根本的な課題の1つは、学習したモデルの目的と下流のプランナーやポリシーの目標とのミスマッチである。
本稿では,タスク関連情報への直接的予測を提案し,そのモデルが現在のタスクを認識し,状態空間の関連量のみをモデル化することを奨励する。
提案手法は,目標条件付きシーンの関連部分を効果的にモデル化し,その結果,標準タスク非依存のダイナミックスモデルやモデルレス強化学習より優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-14T16:42:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。