論文の概要: Domain Adaptation Through Task Distillation
- arxiv url: http://arxiv.org/abs/2008.11911v1
- Date: Thu, 27 Aug 2020 04:44:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 07:35:31.868849
- Title: Domain Adaptation Through Task Distillation
- Title(参考訳): タスク蒸留によるドメイン適応
- Authors: Brady Zhou, Nimit Kalra, Philipp Kr\"ahenb\"uhl
- Abstract要約: ディープネットワークは、数百万もの正確に注釈付けされた画像を使って、強力な表現を構築している。
イメージは、シミュレートされたり、現実的な、興味深いドメインに存在し、ラベル付けや拡張が容易です。
これらの認識データセットを使用して、ソースとターゲットドメインをリンクし、タスク蒸留フレームワークでモデル間を転送します。
- 参考スコア(独自算出の注目度): 5.371337604556311
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep networks devour millions of precisely annotated images to build their
complex and powerful representations. Unfortunately, tasks like autonomous
driving have virtually no real-world training data. Repeatedly crashing a car
into a tree is simply too expensive. The commonly prescribed solution is
simple: learn a representation in simulation and transfer it to the real world.
However, this transfer is challenging since simulated and real-world visual
experiences vary dramatically. Our core observation is that for certain tasks,
such as image recognition, datasets are plentiful. They exist in any
interesting domain, simulated or real, and are easy to label and extend. We use
these recognition datasets to link up a source and target domain to transfer
models between them in a task distillation framework. Our method can
successfully transfer navigation policies between drastically different
simulators: ViZDoom, SuperTuxKart, and CARLA. Furthermore, it shows promising
results on standard domain adaptation benchmarks.
- Abstract(参考訳): ディープネットワークは、その複雑で強力な表現を構築するために、何百万もの正確に注釈された画像を掘り起こします。
残念ながら、自動運転のようなタスクは現実世界のトレーニングデータを持っていない。
繰り返し車を木に衝突させるのは、あまりにも高価すぎる。
一般的に定められた解は単純で、シミュレーションで表現を学び、それを現実世界に転送する。
しかし、シミュレーションや現実世界の視覚体験が劇的に変化するため、この移行は困難である。
私たちの中核的な観察は、画像認識のような特定のタスクに対して、データセットは豊富であることです。
それらは、シミュレーションや現実のあらゆる興味深い領域に存在し、ラベル付けや拡張が容易である。
これらの認識データセットを使用して、ソースとターゲットドメインをリンクし、タスク蒸留フレームワークでモデル間を転送します。
提案手法は,ViZDoom,SuperTuxKart,CARLAなど,異なるシミュレータ間でナビゲーションポリシの転送に成功している。
さらに、標準ドメイン適応ベンチマークで有望な結果を示す。
関連論文リスト
- Learning autonomous driving from aerial imagery [67.06858775696453]
フォトグラムシミュレーターは、生成済みの資産を新しいビューに変換することによって、新しいビューを合成することができる。
我々は、ニューラルネットワーク場(NeRF)を中間表現として使用し、地上車両の視点から新しいビューを合成する。
論文 参考訳(メタデータ) (2024-10-18T05:09:07Z) - Natural Language Can Help Bridge the Sim2Real Gap [9.458180590551715]
Sim2Realは、現実世界のターゲットドメインでデータ不足を克服するための有望なパラダイムである。
本稿では,画像の自然言語記述を領域間の統一信号として用いることを提案する。
言語記述を予測するために、画像エンコーダをトレーニングすることは、有用な、データ効率の良い事前学習ステップとなることを実証する。
論文 参考訳(メタデータ) (2024-05-16T12:02:02Z) - Learning Interactive Real-World Simulators [96.5991333400566]
生成モデルを用いて実世界の相互作用の普遍的なシミュレータを学習する可能性について検討する。
シミュレーターを用いて、高レベルな視覚言語ポリシーと低レベルな強化学習ポリシーの両方を訓練する。
ビデオキャプションモデルは、シミュレートされた経験を持つトレーニングの恩恵を受けることができる。
論文 参考訳(メタデータ) (2023-10-09T19:42:22Z) - Sim-to-Real via Sim-to-Seg: End-to-end Off-road Autonomous Driving
Without Real Data [56.49494318285391]
我々は、オフロード自動運転の視覚的現実的ギャップを横断するRCANを再想像するSim2Segを紹介する。
これは、ランダム化されたシミュレーション画像をシミュレートされたセグメンテーションと深さマップに変換する学習によって行われる。
これにより、シミュレーションでエンドツーエンドのRLポリシーをトレーニングし、現実世界に直接デプロイできます。
論文 参考訳(メタデータ) (2022-10-25T17:50:36Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - DriveGAN: Towards a Controllable High-Quality Neural Simulation [147.6822288981004]
DriveGANと呼ばれる新しい高品質のニューラルシミュレータを紹介します。
DriveGANは、異なるコンポーネントを監督なしで切り離すことによって制御性を達成する。
実世界の運転データ160時間を含む複数のデータセットでdriveganをトレーニングします。
論文 参考訳(メタデータ) (2021-04-30T15:30:05Z) - Sim2Real for Self-Supervised Monocular Depth and Segmentation [7.376636976924]
自動運転車の認識タスクのための画像に基づく学習手法は、過度に適合することなく適切にトレーニングするために、大量のラベル付き実データを必要とする。
領域適応の最近の進歩は、共有潜在空間仮定がシミュレーションと実際の領域の間のギャップを埋めるのに役立つことを示している。
我々は,2つのVAEベースアーキテクチャを共用し,仮想空間と補助デコーダを組み込むことで,実領域において2つの基幹データを必要とすることなく,sim2realギャップをブリッジできることを実証した。
論文 参考訳(メタデータ) (2020-12-01T03:25:02Z) - Deep Traffic Sign Detection and Recognition Without Target Domain Real
Images [52.079665469286496]
本稿では,ターゲットドメインからの実際の画像を必要としない新しいデータベース生成手法と,(ii)交通標識のテンプレートを提案する。
この方法は、実際のデータでトレーニングを克服することではなく、実際のデータが利用できない場合に互換性のある代替手段になることを目的としている。
大規模なデータセットでは、完全に合成されたデータセットによるトレーニングは、実際のデータセットとトレーニングのパフォーマンスにほぼ一致する。
論文 参考訳(メタデータ) (2020-07-30T21:06:47Z) - Virtual to Real adaptation of Pedestrian Detectors [9.432150710329607]
ViPeDは、ビデオゲームGTA V - Grand Theft Auto Vのグラフィカルエンジンで収集された新しい合成画像セットである。
本稿では,歩行者検出作業に適した2つの異なる領域適応手法を提案する。
実験によると、ViPeDでトレーニングされたネットワークは、実世界のデータでトレーニングされた検出器よりも、目に見えない現実世界のシナリオを一般化できる。
論文 参考訳(メタデータ) (2020-01-09T14:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。