論文の概要: SimAug: Learning Robust Representations from Simulation for Trajectory
Prediction
- arxiv url: http://arxiv.org/abs/2004.02022v3
- Date: Fri, 17 Jul 2020 20:43:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 23:18:54.236298
- Title: SimAug: Learning Robust Representations from Simulation for Trajectory
Prediction
- Title(参考訳): SimAug: 軌道予測のためのシミュレーションからロバスト表現を学ぶ
- Authors: Junwei Liang, Lu Jiang, Alexander Hauptmann
- Abstract要約: 本研究では,シミュレーション学習データの拡張により,ロバスト表現を学習する新しい手法を提案する。
我々は,SimAugが実世界の3つのベンチマークで有望な結果を得ることを示す。
- 参考スコア(独自算出の注目度): 78.91518036949918
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies the problem of predicting future trajectories of people in
unseen cameras of novel scenarios and views. We approach this problem through
the real-data-free setting in which the model is trained only on 3D simulation
data and applied out-of-the-box to a wide variety of real cameras. We propose a
novel approach to learn robust representation through augmenting the simulation
training data such that the representation can better generalize to unseen
real-world test data. The key idea is to mix the feature of the hardest camera
view with the adversarial feature of the original view. We refer to our method
as SimAug. We show that SimAug achieves promising results on three real-world
benchmarks using zero real training data, and state-of-the-art performance in
the Stanford Drone and the VIRAT/ActEV dataset when using in-domain training
data.
- Abstract(参考訳): 本稿では,新しいシナリオと視点の未知のカメラにおける人々の将来の軌道予測問題について考察する。
モデルが3dシミュレーションデータのみに基づいてトレーニングされ、さまざまなリアルカメラにアウト・オブ・ザ・ボックスを適用する実データフリー設定によって、この問題にアプローチする。
そこで本研究では,シミュレーショントレーニングデータを拡張することで,実世界のテストデータに対する表現の一般化を図り,ロバストな表現を学習する手法を提案する。
鍵となるアイデアは、最も難しいカメラビューと、元のビューの対角的な特徴を混ぜることだ。
本手法をSimAugと呼ぶ。
そこで本研究では,Stanford DroneとVIRAT/ActEVデータセットを用いたドメイン内トレーニングデータを用いた場合,実世界の3つのベンチマークで有望な結果が得られることを示す。
関連論文リスト
- Sim2real Transfer Learning for Point Cloud Segmentation: An Industrial
Application Case on Autonomous Disassembly [55.41644538483948]
我々は,点クラウドデータにsim2realTransfer Learningを用いた産業アプリケーションケースを提案する。
合成ポイントクラウドデータの生成と処理方法に関する洞察を提供する。
この問題に対処するために、パッチベースの新しいアテンションネットワークも提案されている。
論文 参考訳(メタデータ) (2023-01-12T14:00:37Z) - Sim-to-Real via Sim-to-Seg: End-to-end Off-road Autonomous Driving
Without Real Data [56.49494318285391]
我々は、オフロード自動運転の視覚的現実的ギャップを横断するRCANを再想像するSim2Segを紹介する。
これは、ランダム化されたシミュレーション画像をシミュレートされたセグメンテーションと深さマップに変換する学習によって行われる。
これにより、シミュレーションでエンドツーエンドのRLポリシーをトレーニングし、現実世界に直接デプロイできます。
論文 参考訳(メタデータ) (2022-10-25T17:50:36Z) - Practical Imitation Learning in the Real World via Task Consistency Loss [18.827979446629296]
本稿では,機能レベルと行動予測レベルの両方において,シミュレートと実際のアライメントを促進する自己監督的損失を提案する。
我々は、シミュレートとリアルで遠隔操作されたデモンストレーションを16.2時間しか使っていない10のシーンで80%の成功を達成した。
論文 参考訳(メタデータ) (2022-02-03T21:43:06Z) - RARA: Zero-shot Sim2Real Visual Navigation with Following Foreground
Cues [42.998649025215045]
我々は、カメラベースのナビゲーションの特定のケースに取り組み、任意の背景を持つ前景の視覚的キューに従うように定式化する。
目標は、この前景のキューを除いて、空のシミュレーション環境でキャプチャされたデータに視覚エージェントを訓練し、視覚的に多様な現実世界で直接このモデルをテストすることである。
論文 参考訳(メタデータ) (2022-01-08T09:53:21Z) - VISTA 2.0: An Open, Data-driven Simulator for Multimodal Sensing and
Policy Learning for Autonomous Vehicles [131.2240621036954]
VISTAはオープンソースのデータ駆動シミュレータで、複数のタイプのセンサーを自律走行車に組み込む。
高忠実で実世界のデータセットを使用して、VISTAはRGBカメラ、3D LiDAR、イベントベースのカメラを表現し、シミュレートする。
センサタイプ毎に知覚制御ポリシーをトレーニングし,テストする能力を示し,フルスケールの自律走行車への展開を通じて,このアプローチのパワーを示す。
論文 参考訳(メタデータ) (2021-11-23T18:58:10Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - Exploring the Capabilities and Limits of 3D Monocular Object Detection
-- A Study on Simulation and Real World Data [0.0]
単眼カメラデータに基づく3次元物体検出が自動運転の鍵となる。
近年のディープラーニング手法は, 単一の画像から深度情報を復元する有望な結果を示す。
本稿では,深度推定の異なるパラメータ化が可能な3次元物体検出パイプラインの性能評価を行う。
論文 参考訳(メタデータ) (2020-05-15T09:05:17Z) - Transferable Active Grasping and Real Embodied Dataset [48.887567134129306]
ハンドマウント型RGB-Dカメラを用いて把握可能な視点を探索する方法を示す。
現実的な3段階の移動可能な能動把握パイプラインを開発し、未確認のクラッタシーンに適応する。
本研究のパイプラインでは,カテゴリ非関連行動の把握と確保において,スパース報酬問題を克服するために,新しいマスク誘導報酬を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。