論文の概要: DIRL: Domain-Invariant Representation Learning for Sim-to-Real Transfer
- arxiv url: http://arxiv.org/abs/2011.07589v3
- Date: Thu, 7 Jan 2021 06:08:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 07:42:05.906577
- Title: DIRL: Domain-Invariant Representation Learning for Sim-to-Real Transfer
- Title(参考訳): DIRL:Sim-to-Realトランスファーのためのドメイン不変表現学習
- Authors: Ajay Kumar Tanwani
- Abstract要約: 本稿では,ドメイン不変表現学習(DIRL)アルゴリズムを提案する。
桁領域の実験は、挑戦的なベンチマークで最先端のパフォーマンスを得る。
- 参考スコア(独自算出の注目度): 2.119586259941664
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating large-scale synthetic data in simulation is a feasible alternative
to collecting/labelling real data for training vision-based deep learning
models, albeit the modelling inaccuracies do not generalize to the physical
world. In this paper, we present a domain-invariant representation learning
(DIRL) algorithm to adapt deep models to the physical environment with a small
amount of real data. Existing approaches that only mitigate the covariate shift
by aligning the marginal distributions across the domains and assume the
conditional distributions to be domain-invariant can lead to ambiguous transfer
in real scenarios. We propose to jointly align the marginal (input domains) and
the conditional (output labels) distributions to mitigate the covariate and the
conditional shift across the domains with adversarial learning, and combine it
with a triplet distribution loss to make the conditional distributions disjoint
in the shared feature space. Experiments on digit domains yield
state-of-the-art performance on challenging benchmarks, while sim-to-real
transfer of object recognition for vision-based decluttering with a mobile
robot improves from 26.8 % to 91.0 %, resulting in 86.5 % grasping accuracy of
a wide variety of objects. Code and supplementary details are available at
https://sites.google.com/view/dirl
- Abstract(参考訳): シミュレーションで大規模な合成データを生成することは、視覚に基づくディープラーニングモデルを訓練するための実際のデータを収集・ラップする代替手段である。
本稿では,実データ量が少ない物理環境に深層モデルを適用するためのdirl(domain-invariant representation learning)アルゴリズムを提案する。
領域全体の境界分布を整列し、条件分布をドメイン不変と仮定することで共変量シフトを緩和する既存のアプローチは、実際のシナリオにおいて曖昧な転移をもたらす可能性がある。
本稿では,境界領域(入力領域)と条件分布(出力ラベル)を協調的に整合させて,共変量と条件シフトを相反学習で緩和し,それを3重分布損失と組み合わせて,条件分布を共有特徴空間内で解離させる方法を提案する。
ディジットドメインの実験では、挑戦的なベンチマークで最先端のパフォーマンスが得られ、一方、移動ロボットによる視覚に基づくデカリングのためのオブジェクト認識のシミュレートは26.8 %から91.0 %に改善され、様々なオブジェクトの把握精度は86.5 %となる。
コードと追加の詳細はhttps://sites.google.com/view/dirlで確認できる。
関連論文リスト
- xTED: Cross-Domain Adaptation via Diffusion-Based Trajectory Editing [21.37585797507323]
ドメイン間政策伝達手法は主に、ポリシー学習を容易にするために、ドメインの対応や修正を学習することを目的としている。
本稿では,クロスドメイントラジェクトリ適応のために特別に設計された拡散モデルを用いたクロスドメイントラジェクトリ・EDitingフレームワークを提案する。
提案するモデルアーキテクチャは,対象データ内の動的パターンだけでなく,状態,行動,報酬間の複雑な依存関係を効果的にキャプチャする。
論文 参考訳(メタデータ) (2024-09-13T10:07:28Z) - Semi Supervised Heterogeneous Domain Adaptation via Disentanglement and Pseudo-Labelling [4.33404822906643]
半教師付きドメイン適応法は、ソースラベル付きドメインからの情報を利用して、少ないラベル付きターゲットドメインを一般化する。
このような設定は半教師付き不均質ドメイン適応(SSHDA)と表記される。
SHEDD(Semi-supervised Heterogeneous Domain Adaptation via Disentanglement)は,対象ドメインの学習に適したエンドツーエンドのニューラルネットワークフレームワークである。
論文 参考訳(メタデータ) (2024-06-20T08:02:49Z) - SALUDA: Surface-based Automotive Lidar Unsupervised Domain Adaptation [62.889835139583965]
我々は、ソースデータとターゲットデータに基づいて、暗黙の基盤となる表面表現を同時に学習する教師なし補助タスクを導入する。
両方のドメインが同じ遅延表現を共有しているため、モデルは2つのデータソース間の不一致を許容せざるを得ない。
実験の結果,本手法は実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-
論文 参考訳(メタデータ) (2023-04-06T17:36:23Z) - One-Shot Domain Adaptive and Generalizable Semantic Segmentation with
Class-Aware Cross-Domain Transformers [96.51828911883456]
セマンティックセグメンテーションのための教師なしのsim-to-realドメイン適応(UDA)は、シミュレーションデータに基づいて訓練されたモデルの実世界のテスト性能を改善することを目的としている。
従来のUDAは、適応のためのトレーニング中に利用可能なラベルのない実世界のサンプルが豊富にあると仮定することが多い。
実世界のデータサンプルが1つしか利用できない,一発の教師なしシム・トゥ・リアル・ドメイン適応(OSUDA)と一般化問題について検討する。
論文 参考訳(メタデータ) (2022-12-14T15:54:15Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - VisDA-2021 Competition Universal Domain Adaptation to Improve
Performance on Out-of-Distribution Data [64.91713686654805]
Visual Domain Adaptation (VisDA) 2021コンペティションは、新しいテストディストリビューションに適応するモデルの能力をテストする。
我々は,新しい視点,背景,モダリティ,品質劣化への適応性を評価する。
厳密なプロトコルを使用してパフォーマンスを計測し、最先端のドメイン適応手法と比較する。
論文 参考訳(メタデータ) (2021-07-23T03:21:51Z) - Learning Domain Invariant Representations by Joint Wasserstein Distance
Minimization [3.382067152367334]
トレーニングデータのドメインシフトは、機械学習の実践的応用において一般的である。
理想的には、MLモデルは、例えばドメイン不変表現を学ぶことによって、これらのシフトとは独立して機能するべきです。
一般的なMLの損失は、MLモデルが異なるドメインに対していかに一貫して機能するかを強く保証するものではない。
論文 参考訳(メタデータ) (2021-06-09T09:08:51Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Alleviating Semantic-level Shift: A Semi-supervised Domain Adaptation
Method for Semantic Segmentation [97.8552697905657]
このタスクの重要な課題は、ソースとターゲットドメイン間のデータ分散の相違を緩和する方法である。
本稿では,グローバルな視点とローカルな視点の両方から分布の整合性を促進できるASS(Alleviating Semantic-level Shift)を提案する。
GTA5、Cityscapes、Synthia、Cityscapesの2つのドメイン適応タスクにASSを適用します。
論文 参考訳(メタデータ) (2020-04-02T03:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。