論文の概要: Self-Distillation for Unsupervised 3D Domain Adaptation
- arxiv url: http://arxiv.org/abs/2210.08226v1
- Date: Sat, 15 Oct 2022 08:37:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 19:00:23.233842
- Title: Self-Distillation for Unsupervised 3D Domain Adaptation
- Title(参考訳): 教師なし3次元領域適応のための自己蒸留
- Authors: Adriano Cardace, Riccardo Spezialetti, Pierluigi Zama Ramirez, Samuele
Salti, Luigi Di Stefano
- Abstract要約: 3次元視覚における点群分類のための教師なし領域適応法(UDA)を提案する。
本研究では、ポイントクラウドとその拡張バージョン間の一貫性を強制する対象ドメインの識別的特徴空間を得ることに焦点をあてる。
疑似ラベルを洗練させるために,UDAコンテキストにおけるグラフニューラルネットワークを利用した新しい反復的自己学習手法を提案する。
- 参考スコア(独自算出の注目度): 15.660045080090711
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Point cloud classification is a popular task in 3D vision. However, previous
works, usually assume that point clouds at test time are obtained with the same
procedure or sensor as those at training time. Unsupervised Domain Adaptation
(UDA) instead, breaks this assumption and tries to solve the task on an
unlabeled target domain, leveraging only on a supervised source domain. For
point cloud classification, recent UDA methods try to align features across
domains via auxiliary tasks such as point cloud reconstruction, which however
do not optimize the discriminative power in the target domain in feature space.
In contrast, in this work, we focus on obtaining a discriminative feature space
for the target domain enforcing consistency between a point cloud and its
augmented version. We then propose a novel iterative self-training methodology
that exploits Graph Neural Networks in the UDA context to refine pseudo-labels.
We perform extensive experiments and set the new state-of-the-art in standard
UDA benchmarks for point cloud classification. Finally, we show how our
approach can be extended to more complex tasks such as part segmentation.
- Abstract(参考訳): ポイントクラウド分類は3Dビジョンで一般的なタスクである。
しかしながら、以前の研究は通常、テスト時の点雲は訓練時と同じ手順またはセンサーで得られると仮定する。
教師なしのドメイン適応(Unsupervised Domain Adaptation, UDA)は、この仮定を破り、教師なしのソースドメインのみを活用する、ラベルなしのターゲットドメイン上のタスクを解決しようとする。
ポイントクラウド分類では、最近のUDA手法は、ポイントクラウド再構成のような補助的なタスクを通じて、機能領域間の機能を整合させようとするが、特徴空間におけるターゲット領域における識別力の最適化は行わない。
対照的に,本研究では,ポイントクラウドとその拡張バージョン間の一貫性を強制する対象領域の識別的特徴空間の獲得に注目する。
次に,udaコンテキストのグラフニューラルネットワークを利用して擬似ラベルを洗練する反復的自己学習手法を提案する。
広範な実験を行い、ポイントクラウド分類のための標準のudaベンチマークで最新技術を設定します。
最後に、このアプローチを部分分割のようなより複雑なタスクに拡張する方法を示します。
関連論文リスト
- T-UDA: Temporal Unsupervised Domain Adaptation in Sequential Point
Clouds [2.5291108878852864]
教師なしドメイン適応(UDA)メソッドは、1つの(ソース)ドメインでトレーニングされたモデルに、アノテーションが利用可能な他の(ターゲット)ドメインに適応する。
本稿では,両トレンドの長所を活かした新しい領域適応手法を提案する。この組み合わせにより,運転シーンの3次元セマンティックセマンティックセグメンテーションのタスクにおいて,大きなパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2023-09-15T10:47:12Z) - Compositional Semantic Mix for Domain Adaptation in Point Cloud
Segmentation [65.78246406460305]
合成意味混合は、ポイントクラウドセグメンテーションのための最初の教師なし領域適応技術である。
本稿では、ソースドメイン(例えば合成)からの点雲とターゲットドメイン(例えば実世界)からの点雲を同時に処理できる2分岐対称ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-08-28T14:43:36Z) - SSDA3D: Semi-supervised Domain Adaptation for 3D Object Detection from
Point Cloud [125.9472454212909]
本稿では,3次元物体検出(SSDA3D)のための半改良型領域適応法を提案する。
SSDA3Dはドメイン間適応ステージとドメイン内一般化ステージを含む。
実験の結果,10%のラベル付きターゲットデータしか持たないSSDA3Dは,100%のターゲットラベルを持つ完全教師付きオラクルモデルを上回ることができることがわかった。
論文 参考訳(メタデータ) (2022-12-06T09:32:44Z) - Domain Adaptation on Point Clouds via Geometry-Aware Implicits [14.404842571470061]
一般的な幾何学的表現として、ポイントクラウドは3Dビジョンにおいて多くの注目を集めており、自律運転やロボット工学における多くの応用につながっている。
ポイントクラウドで学ぶ上で重要な未解決の問題は、同じ物体の点雲が異なる手順で生成されたり、異なるセンサーで捉えられたりすると、大きな幾何学的なバリエーションを持つ可能性があることである。
ドメインギャップを減らすための典型的なテクニックは、機能領域の点雲が整列できるように、敵対的なトレーニングを実行することである。
本稿では,幾何認識型暗黙的学習の自己指導的タスクを用いて,点雲上での教師なし領域適応の簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2021-12-17T06:28:01Z) - RefRec: Pseudo-labels Refinement via Shape Reconstruction for
Unsupervised 3D Domain Adaptation [23.275638060852067]
RefRecは、ポイントクラウドのためのUDAにおける擬似ラベルと自己学習を調査するための最初のアプローチである。
我々は3Dデータに自己学習を効果的にするための2つの主要なイノベーションを提示する。
論文 参考訳(メタデータ) (2021-10-21T10:24:05Z) - Plugging Self-Supervised Monocular Depth into Unsupervised Domain
Adaptation for Semantic Segmentation [19.859764556851434]
セマンティックセグメンテーションのためのUDAを改善するために,自己教師付き単眼深度推定手法を提案する。
我々の提案では,GTA5->CSベンチマークで最先端性能(58.8 mIoU)を達成することができる。
論文 参考訳(メタデータ) (2021-10-13T12:48:51Z) - Discover, Hallucinate, and Adapt: Open Compound Domain Adaptation for
Semantic Segmentation [91.30558794056056]
意味的セグメンテーションのための教師なしドメイン適応(UDA)が近年注目を集めている。
我々は,発見,幻覚,適応の3つの主要な設計原則に基づく新しいフレームワークを提案する。
我々は、標準ベンチマークGTAからC自動運転へのソリューションの評価を行い、新しい最先端の結果を得た。
論文 参考訳(メタデータ) (2021-10-08T13:20:09Z) - Seeking Similarities over Differences: Similarity-based Domain Alignment
for Adaptive Object Detection [86.98573522894961]
本研究では,Unsupervised Domain Adaptation (UDA) アルゴリズムが検出に使用するコンポーネントを一般化するフレームワークを提案する。
具体的には、最適な設計選択を生かした新しいUDAアルゴリズムViSGAを提案し、インスタンスレベルの特徴を集約する単純だが効果的な方法を提案する。
類似性に基づくグループ化と対角トレーニングの両方により、モデルでは、ゆるやかに整列されたドメインにまたがるすべてのインスタンスにマッチせざるを得ず、機能グループを粗い整列することに集中することが可能であることが示されています。
論文 参考訳(メタデータ) (2021-10-04T13:09:56Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - A Learnable Self-supervised Task for Unsupervised Domain Adaptation on
Point Clouds [7.731213699116179]
学習可能な自己教師型タスクを提案し,それをセルフスーパービジョンベースのポイントクラウド UDA アーキテクチャに統合する。
udaアーキテクチャでは、自己監視タスクのためのネットワークとポイントクラウドの分類やセグメンテーションのメインタスクの間でエンコーダが共有される。
PointDA-10とPointSegDAデータセットを用いた実験により,提案手法はポイントクラウドUDAの分類とセグメンテーションのタスクにおいて,新たな最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2021-04-12T02:30:16Z) - Prototypical Cross-domain Self-supervised Learning for Few-shot
Unsupervised Domain Adaptation [91.58443042554903]
FUDA(Unsupervised Domain Adaptation)のためのPCS(Prototypical Cross-Domain Self-Supervised Learning)フレームワークを提案する。
PCSは、クロスドメインのローレベルな機能アライメントを行うだけでなく、ドメイン間の共有埋め込み空間におけるセマンティック構造をエンコードおよびアライメントする。
最新の手法と比較して、pcsは、fuda上の異なるドメインペアの平均分類精度を10.5%、office、office-home、visda-2017、domainnetで3.5%、9.0%、13.2%改善している。
論文 参考訳(メタデータ) (2021-03-31T02:07:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。