論文の概要: SimAug: Learning Robust Representations from Simulation for Trajectory
Prediction
- arxiv url: http://arxiv.org/abs/2004.02022v3
- Date: Fri, 17 Jul 2020 20:43:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 23:18:54.236298
- Title: SimAug: Learning Robust Representations from Simulation for Trajectory
Prediction
- Title(参考訳): SimAug: 軌道予測のためのシミュレーションからロバスト表現を学ぶ
- Authors: Junwei Liang, Lu Jiang, Alexander Hauptmann
- Abstract要約: 本研究では,シミュレーション学習データの拡張により,ロバスト表現を学習する新しい手法を提案する。
我々は,SimAugが実世界の3つのベンチマークで有望な結果を得ることを示す。
- 参考スコア(独自算出の注目度): 78.91518036949918
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies the problem of predicting future trajectories of people in
unseen cameras of novel scenarios and views. We approach this problem through
the real-data-free setting in which the model is trained only on 3D simulation
data and applied out-of-the-box to a wide variety of real cameras. We propose a
novel approach to learn robust representation through augmenting the simulation
training data such that the representation can better generalize to unseen
real-world test data. The key idea is to mix the feature of the hardest camera
view with the adversarial feature of the original view. We refer to our method
as SimAug. We show that SimAug achieves promising results on three real-world
benchmarks using zero real training data, and state-of-the-art performance in
the Stanford Drone and the VIRAT/ActEV dataset when using in-domain training
data.
- Abstract(参考訳): 本稿では,新しいシナリオと視点の未知のカメラにおける人々の将来の軌道予測問題について考察する。
モデルが3dシミュレーションデータのみに基づいてトレーニングされ、さまざまなリアルカメラにアウト・オブ・ザ・ボックスを適用する実データフリー設定によって、この問題にアプローチする。
そこで本研究では,シミュレーショントレーニングデータを拡張することで,実世界のテストデータに対する表現の一般化を図り,ロバストな表現を学習する手法を提案する。
鍵となるアイデアは、最も難しいカメラビューと、元のビューの対角的な特徴を混ぜることだ。
本手法をSimAugと呼ぶ。
そこで本研究では,Stanford DroneとVIRAT/ActEVデータセットを用いたドメイン内トレーニングデータを用いた場合,実世界の3つのベンチマークで有望な結果が得られることを示す。
関連論文リスト
- Transfer Learning from Simulated to Real Scenes for Monocular 3D Object Detection [9.708971995966476]
本稿では,これらの課題に対処するための2段階のトレーニング戦略を紹介する。
当社のアプローチでは,大規模合成データセットであるRoadSense3Dのモデルをトレーニングしています。
実世界のデータセットの組み合わせでモデルを微調整し、実用条件への適応性を高める。
論文 参考訳(メタデータ) (2024-08-28T08:44:58Z) - Are NeRFs ready for autonomous driving? Towards closing the real-to-simulation gap [6.393953433174051]
本稿では,実際のデータギャップに対処するための新しい視点を提案する。
自律運転環境における実シミュレーションデータギャップの大規模調査を初めて実施する。
シミュレーションデータに対するモデルロバスト性は顕著に向上し,実世界の性能も向上した。
論文 参考訳(メタデータ) (2024-03-24T11:09:41Z) - Reconstructing Objects in-the-wild for Realistic Sensor Simulation [41.55571880832957]
我々は,スパース・イン・ザ・ワイルドデータから正確な幾何学的および現実的な外観を推定する新しい手法であるNeuSimを提案する。
物体の外観を物理にインスパイアされた頑健な反射率表現でモデル化し,実測データに有効である。
実験の結果,NeuSimはスパース・トレーニング・ビューを持つ難解なシナリオに対して,強力なビュー合成性能を有することがわかった。
論文 参考訳(メタデータ) (2023-11-09T18:58:22Z) - Learning Interactive Real-World Simulators [96.5991333400566]
生成モデルを用いて実世界の相互作用の普遍的なシミュレータを学習する可能性について検討する。
シミュレーターを用いて、高レベルな視覚言語ポリシーと低レベルな強化学習ポリシーの両方を訓練する。
ビデオキャプションモデルは、シミュレートされた経験を持つトレーニングの恩恵を受けることができる。
論文 参考訳(メタデータ) (2023-10-09T19:42:22Z) - Sim2real Transfer Learning for Point Cloud Segmentation: An Industrial
Application Case on Autonomous Disassembly [55.41644538483948]
我々は,点クラウドデータにsim2realTransfer Learningを用いた産業アプリケーションケースを提案する。
合成ポイントクラウドデータの生成と処理方法に関する洞察を提供する。
この問題に対処するために、パッチベースの新しいアテンションネットワークも提案されている。
論文 参考訳(メタデータ) (2023-01-12T14:00:37Z) - RARA: Zero-shot Sim2Real Visual Navigation with Following Foreground
Cues [42.998649025215045]
我々は、カメラベースのナビゲーションの特定のケースに取り組み、任意の背景を持つ前景の視覚的キューに従うように定式化する。
目標は、この前景のキューを除いて、空のシミュレーション環境でキャプチャされたデータに視覚エージェントを訓練し、視覚的に多様な現実世界で直接このモデルをテストすることである。
論文 参考訳(メタデータ) (2022-01-08T09:53:21Z) - VISTA 2.0: An Open, Data-driven Simulator for Multimodal Sensing and
Policy Learning for Autonomous Vehicles [131.2240621036954]
VISTAはオープンソースのデータ駆動シミュレータで、複数のタイプのセンサーを自律走行車に組み込む。
高忠実で実世界のデータセットを使用して、VISTAはRGBカメラ、3D LiDAR、イベントベースのカメラを表現し、シミュレートする。
センサタイプ毎に知覚制御ポリシーをトレーニングし,テストする能力を示し,フルスケールの自律走行車への展開を通じて,このアプローチのパワーを示す。
論文 参考訳(メタデータ) (2021-11-23T18:58:10Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - Exploring the Capabilities and Limits of 3D Monocular Object Detection
-- A Study on Simulation and Real World Data [0.0]
単眼カメラデータに基づく3次元物体検出が自動運転の鍵となる。
近年のディープラーニング手法は, 単一の画像から深度情報を復元する有望な結果を示す。
本稿では,深度推定の異なるパラメータ化が可能な3次元物体検出パイプラインの性能評価を行う。
論文 参考訳(メタデータ) (2020-05-15T09:05:17Z) - Transferable Active Grasping and Real Embodied Dataset [48.887567134129306]
ハンドマウント型RGB-Dカメラを用いて把握可能な視点を探索する方法を示す。
現実的な3段階の移動可能な能動把握パイプラインを開発し、未確認のクラッタシーンに適応する。
本研究のパイプラインでは,カテゴリ非関連行動の把握と確保において,スパース報酬問題を克服するために,新しいマスク誘導報酬を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。