論文の概要: Autonomous Cross Domain Adaptation under Extreme Label Scarcity
- arxiv url: http://arxiv.org/abs/2209.01548v1
- Date: Sun, 4 Sep 2022 07:17:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 12:45:01.768334
- Title: Autonomous Cross Domain Adaptation under Extreme Label Scarcity
- Title(参考訳): 極端ラベル不足下での自律クロスドメイン適応
- Authors: Weiwei Weng, Mahardhika Pratama, Choiru Za'in, Marcus De Carvalho,
Rakaraddi Appan, Andri Ashfahani, Edward Yapp Kien Yee
- Abstract要約: クロスドメインのマルチストリーム分類は、異なるが関連するストリームを扱うために高速なドメイン適応を要求する難しい問題である。
本稿では,クロスドメインマルチストリーム分類問題におけるラベル不足の問題に対処することを目的とする。
我々のソリューションであるLearning Streaming Process from partial Ground Truth (LEOPARD)は、フレキシブルなディープクラスタリングネットワーク上に構築されています。
- 参考スコア(独自算出の注目度): 9.348446467281391
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: A cross domain multistream classification is a challenging problem calling
for fast domain adaptations to handle different but related streams in
never-ending and rapidly changing environments. Notwithstanding that existing
multistream classifiers assume no labelled samples in the target stream, they
still incur expensive labelling cost since they require fully labelled samples
of the source stream. This paper aims to attack the problem of extreme label
shortage in the cross domain multistream classification problems where only
very few labelled samples of the source stream are provided before process
runs. Our solution, namely Learning Streaming Process from Partial Ground Truth
(LEOPARD), is built upon a flexible deep clustering network where its hidden
nodes, layers and clusters are added and removed dynamically in respect to
varying data distributions. A deep clustering strategy is underpinned by a
simultaneous feature learning and clustering technique leading to
clustering-friendly latent spaces. A domain adaptation strategy relies on the
adversarial domain adaptation technique where a feature extractor is trained to
fool a domain classifier classifying source and target streams. Our numerical
study demonstrates the efficacy of LEOPARD where it delivers improved
performances compared to prominent algorithms in 15 of 24 cases. Source codes
of LEOPARD are shared in \url{https://github.com/wengweng001/LEOPARD.git} to
enable further study.
- Abstract(参考訳): クロスドメインマルチストリーム分類(cross domain multistream classification)は、絶え間なく変化する環境において、異なるが関連するストリームを処理する高速ドメイン適応を求める難しい問題である。
既存のマルチストリーム分類器は、ターゲットストリームにラベル付きサンプルは含まないが、ソースストリームの完全なラベル付きサンプルを必要とするため、高価なラベル付けコストがかかる。
本稿では,プロセス実行前にソースストリームのラベル付きサンプルがごくわずかしか提供されないクロスドメインマルチストリーム分類問題において,ラベル不足の問題に対処することを目的とする。
我々のソリューションであるLearning Streaming Process from partial Ground Truth (LEOPARD)は、様々なデータ分布に対して、その隠れノード、レイヤ、クラスタを動的に追加・削除する柔軟なディープクラスタリングネットワーク上に構築されている。
深いクラスタリング戦略は、クラスタリングフレンドリなラテントスペースにつながる同時機能学習とクラスタリング技術によって支えられている。
ドメイン適応戦略は、特徴抽出器が、ソースとターゲットストリームを分類するドメイン分類器を騙すように訓練される対向領域適応技術に依存する。
LEOPARDは,24例中15例において,顕著なアルゴリズムに比べて性能が向上することを示す。
LEOPARDのソースコードは \url{https://github.com/wengweng001/LEOPARD.git} で共有され、さらなる研究を可能にする。
関連論文リスト
- Upcycling Models under Domain and Category Shift [95.22147885947732]
グローバルかつ局所的なクラスタリング学習技術(GLC)を導入する。
我々は、異なる対象クラス間での区別を実現するために、新しい1-vs-allグローバルクラスタリングアルゴリズムを設計する。
注目すべきは、最も困難なオープンパーティルセットDAシナリオにおいて、GLCは、VisDAベンチマークでUMADを14.8%上回っていることである。
論文 参考訳(メタデータ) (2023-03-13T13:44:04Z) - Unsupervised Domain Adaptation via Distilled Discriminative Clustering [45.39542287480395]
対象データの識別クラスタリングとしてドメイン適応問題を再検討する。
本稿では,ラベル付き情報源データよりも並列に教師付き学習目標を用いて,ネットワークを協調的に訓練することを提案する。
5つの人気のあるベンチマークデータセットに対して、慎重にアブレーション研究と広範な実験を行う。
論文 参考訳(メタデータ) (2023-02-23T13:03:48Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Class-Balanced Pixel-Level Self-Labeling for Domain Adaptive Semantic
Segmentation [31.50802009879241]
ドメイン適応セマンティックセグメンテーション(Domain Adaptive semantic segmentation)は、ソースドメインデータの監視によってモデルを学習し、ラベルなしのターゲットドメイン上で密度の高い予測を生成することを目的としている。
この課題に対する一般的な解決策の1つは自己学習であり、ターゲットサンプルのハイスコア予測をトレーニング用の擬似ラベルとして選択する。
本稿では,ソース領域に強く依存するのではなく,対象領域データの固有画素分布を直接探索することを提案する。
論文 参考訳(メタデータ) (2022-03-18T04:56:20Z) - Towards Robust Cross-domain Image Understanding with Unsupervised Noise
Removal [18.21213151403402]
ソース領域がノイズである場合に、クロスドメイン画像理解のための現代ドメイン適応手法が不十分であることが判明した。
Weakly Supervised Domain Adaptation (WSDA) のための新しいノイズ耐性ドメイン適応法を提案する。
新型コロナウイルスおよび電子商取引データセットの一般画像と医用画像の両面において,本手法の有効性を評価するため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-09T14:06:59Z) - Cross-Domain Adaptive Clustering for Semi-Supervised Domain Adaptation [85.6961770631173]
半監視されたドメイン適応では、残りのターゲットサンプルのターゲットドメインガイド機能内のクラスごとのいくつかのラベル付きサンプルが、その周辺に集約される。
この問題に対処するために,クロスドメイン適応クラスタリングという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-04-19T16:07:32Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Divergence Optimization for Noisy Universal Domain Adaptation [32.05829135903389]
ユニバーサルドメイン適応(UniDA)は、ラベルリッチソースドメインから学んだ知識をラベルスカースターゲットドメインに転送するために提案されている。
本稿では,すべての問題を同時に解決する2ヘッド畳み込みニューラルネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-01T04:16:04Z) - Domain Adaptation with Auxiliary Target Domain-Oriented Classifier [115.39091109079622]
ドメイン適応は、知識をラベルリッチだが異質なドメインからラベルケアドメインに転送することを目的としている。
最も一般的なSSLテクニックの1つは、ラベルのない各データに擬似ラベルを割り当てる擬似ラベル付けである。
我々はAuxiliary Target Domain-Oriented (ATDOC) と呼ばれる新しい擬似ラベリングフレームワークを提案する。
ATDOCは、ターゲットデータのみのための補助分類器を導入してバイアスを軽減し、擬似ラベルの品質を向上させる。
論文 参考訳(メタデータ) (2020-07-08T15:01:35Z) - Alleviating Semantic-level Shift: A Semi-supervised Domain Adaptation
Method for Semantic Segmentation [97.8552697905657]
このタスクの重要な課題は、ソースとターゲットドメイン間のデータ分散の相違を緩和する方法である。
本稿では,グローバルな視点とローカルな視点の両方から分布の整合性を促進できるASS(Alleviating Semantic-level Shift)を提案する。
GTA5、Cityscapes、Synthia、Cityscapesの2つのドメイン適応タスクにASSを適用します。
論文 参考訳(メタデータ) (2020-04-02T03:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。