論文の概要: Explicit Domain Adaptation with Loosely Coupled Samples
- arxiv url: http://arxiv.org/abs/2004.11995v1
- Date: Fri, 24 Apr 2020 21:23:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 03:26:29.873922
- Title: Explicit Domain Adaptation with Loosely Coupled Samples
- Title(参考訳): 疎結合サンプルを用いた明示的ドメイン適応
- Authors: Oliver Scheel, Loren Schwarz, Nassir Navab, Federico Tombari
- Abstract要約: 本稿では,ドメイン間の明示的なマッピングを学習するトランスファーラーニングフレームワークを提案する。
その解釈可能性のために、これは自律運転のような安全クリティカルなアプリケーションにとって有益である。
- 参考スコア(独自算出の注目度): 85.9511585604837
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning is an important field of machine learning in general, and
particularly in the context of fully autonomous driving, which needs to be
solved simultaneously for many different domains, such as changing weather
conditions and country-specific driving behaviors. Traditional transfer
learning methods often focus on image data and are black-box models. In this
work we propose a transfer learning framework, core of which is learning an
explicit mapping between domains. Due to its interpretability, this is
beneficial for safety-critical applications, like autonomous driving. We show
its general applicability by considering image classification problems and then
move on to time-series data, particularly predicting lane changes. In our
evaluation we adapt a pre-trained model to a dataset exhibiting different
driving and sensory characteristics.
- Abstract(参考訳): 移動学習は、一般的に機械学習の重要な分野であり、特に完全自律運転の文脈では、気象条件の変化や国固有の運転行動など、多くの異なる領域で同時に解決する必要がある。
伝統的な転送学習法は、しばしば画像データに焦点を当て、ブラックボックスモデルである。
本研究では,ドメイン間の明示的なマッピングを学習するトランスファーラーニングフレームワークを提案する。
解釈性のため、これは自動運転のような安全クリティカルな用途に有用である。
画像分類問題を考慮し,特に車線変化を予測する時系列データに移行することで,その汎用性を示す。
本評価では,運転特性と感覚特性の異なるデータセットに事前学習モデルを適用する。
関連論文リスト
- Looking for a better fit? An Incremental Learning Multimodal Object
Referencing Framework adapting to Individual Drivers [0.0]
自動車産業の急速な進歩により、タッチベースや音声コマンドシステムといった従来の車両のインタラクション方法は、車両外の物体を参照するなど、幅広い非運転関連のタスクには不十分である。
textitIcRegressは、オブジェクトの駆動と参照という2つのタスクに携わるドライバーの振る舞いや特徴に適応する、新しい回帰に基づく漸進的学習手法である。
論文 参考訳(メタデータ) (2024-01-29T12:48:56Z) - FedDrive: Generalizing Federated Learning to Semantic Segmentation in
Autonomous Driving [27.781734303644516]
フェデレートラーニングは、プライバシを保持し、何百万ものリモートデバイス上のデータを活用しながら、グローバルモデルを学ぶことを目的としている。
3つの設定と2つのデータセットからなる新しいベンチマークであるFedDriveを提案する。
我々は、詳細な分析を通じて、フェデレートされた学習文献から最先端のアルゴリズムをベンチマークする。
論文 参考訳(メタデータ) (2022-02-28T10:34:31Z) - Learning Interactive Driving Policies via Data-driven Simulation [125.97811179463542]
データ駆動シミュレータは、ポリシー学習の駆動に高いデータ効率を約束する。
小さな基盤となるデータセットは、インタラクティブな運転を学ぶための興味深い、挑戦的なエッジケースを欠いていることが多い。
本研究では,ロバストな運転方針の学習に塗装されたアドカーを用いたシミュレーション手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T20:14:02Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - Factors of Influence for Transfer Learning across Diverse Appearance
Domains and Task Types [50.1843146606122]
現在の最新のコンピュータビジョンモデルでは、簡単な転送学習が一般的です。
転校学習に関するこれまでの体系的な研究は限られており、作業が期待される状況は十分に理解されていない。
本論文では,非常に異なる画像領域にまたがる転送学習の広範な実験的研究を行う。
論文 参考訳(メタデータ) (2021-03-24T16:24:20Z) - Improving Generalization of Transfer Learning Across Domains Using
Spatio-Temporal Features in Autonomous Driving [45.655433907239804]
車両シミュレーションは仮想世界で学習するために使用することができ、取得したスキルは現実世界のシナリオを扱うために転送することができる。
これらの視覚的要素は、運転中の人間の意思決定に直感的に重要です。
シーンから車両の動特性を表す時間的特徴を抽出するCNN+LSTM転送学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-15T03:26:06Z) - Understanding Self-Training for Gradual Domain Adaptation [107.37869221297687]
段階的なドメイン適応は、対象領域へ徐々にシフトするラベルのないデータのみを与えられたソースドメインで訓練された初期分類器を適応させることが目的である。
目標領域への直接適応が非有界誤差をもたらすような設定下において、段階的なシフトを伴う自己学習の誤差に対する最初の非無空上界を証明した。
この理論解析はアルゴリズムの洞察を導き、無限のデータを持つ場合でも正規化とラベルのシャープ化が不可欠であることを強調し、より小さなワッサーシュタイン無限距離のシフトに対して自己学習が特にうまく働くことを示唆している。
論文 参考訳(メタデータ) (2020-02-26T08:59:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。