論文の概要: Learning Distinctive Margin toward Active Domain Adaptation
- arxiv url: http://arxiv.org/abs/2203.05738v1
- Date: Fri, 11 Mar 2022 03:30:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-14 19:08:39.994119
- Title: Learning Distinctive Margin toward Active Domain Adaptation
- Title(参考訳): アクティブドメイン適応への特有なマージンの学習
- Authors: Ming Xie, Yuxi Li, Yabiao Wang, Zekun Luo, Zhenye Gan, Zhongyi Sun,
Mingmin Chi, Chengjie Wang, Pei Wang
- Abstract要約: 本研究では,Select-by-Distinctive-Margin (SDM) という,簡潔だが効果的なADA法を提案する。
SDMは、データ選択のための最大マージン損失とマージンサンプリングアルゴリズムからなる。
我々は、SDMを標準的なアクティブな学習設定でベンチマークし、我々のアルゴリズムが優れたデータスケーラビリティで競合する結果を達成することを実証した。
- 参考スコア(独自算出の注目度): 27.091800612463455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite plenty of efforts focusing on improving the domain adaptation ability
(DA) under unsupervised or few-shot semi-supervised settings, recently the
solution of active learning started to attract more attention due to its
suitability in transferring model in a more practical way with limited
annotation resource on target data. Nevertheless, most active learning methods
are not inherently designed to handle domain gap between data distribution, on
the other hand, some active domain adaptation methods (ADA) usually requires
complicated query functions, which is vulnerable to overfitting. In this work,
we propose a concise but effective ADA method called
Select-by-Distinctive-Margin (SDM), which consists of a maximum margin loss and
a margin sampling algorithm for data selection. We provide theoretical analysis
to show that SDM works like a Support Vector Machine, storing hard examples
around decision boundaries and exploiting them to find informative and
transferable data. In addition, we propose two variants of our method, one is
designed to adaptively adjust the gradient from margin loss, the other boosts
the selectivity of margin sampling by taking the gradient direction into
account. We benchmark SDM with standard active learning setting, demonstrating
our algorithm achieves competitive results with good data scalability. Code is
available at https://github.com/TencentYoutuResearch/ActiveLearning-SDM
- Abstract(参考訳): 教師なしあるいは数発の半教師付き設定下でのドメイン適応能力(DA)の改善に多くの取り組みがあったが、最近、ターゲットデータに限定されたアノテーションリソースでより実用的な方法でモデルを転送できるため、アクティブラーニングのソリューションが注目されるようになった。
しかしながら、ほとんどのアクティブな学習方法は、データ分散間のドメインギャップを処理するように設計されていないが、一方、いくつかのアクティブなドメイン適応法(ADA)は通常、オーバーフィッティングに弱い複雑なクエリ関数を必要とする。
本研究では,最大マージン損失とデータ選択のためのマージンサンプリングアルゴリズムからなるsdm(select-by-distinctive-margin)と呼ばれる簡潔かつ効果的なada法を提案する。
我々は,SDMがSupport Vector Machineのように機能し,決定境界のハードな例を格納し,それらを活用して情報的かつ伝達可能なデータを見つけることを理論的に示す。
また,本手法の2つの変種を提案する。1つはマージン損失からの勾配を適応的に調整し,もう1つは勾配方向を考慮したマージンサンプリングの選択性を高める。
我々は、SDMを標準的なアクティブな学習設定でベンチマークし、我々のアルゴリズムが優れたデータスケーラビリティで競合する結果を達成することを実証した。
コードはhttps://github.com/TencentYoutuResearch/ActiveLearning-SDMで入手できる。
関連論文リスト
- Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - Informative Data Mining for One-Shot Cross-Domain Semantic Segmentation [84.82153655786183]
Informative Data Mining (IDM) と呼ばれる新しいフレームワークを提案し、セマンティックセグメンテーションのための効率的なワンショットドメイン適応を実現する。
IDMは、最も情報性の高いサンプルを特定するために不確実性に基づく選択基準を提供し、迅速に適応し、冗長なトレーニングを減らす。
提案手法は,GTA5/SYNTHIAからCityscapesへの適応タスクにおいて,既存の手法より優れ,56.7%/55.4%の最先端のワンショット性能を実現している。
論文 参考訳(メタデータ) (2023-09-25T15:56:01Z) - Divide and Adapt: Active Domain Adaptation via Customized Learning [56.79144758380419]
対象インスタンスを成層化可能な4つのカテゴリに分割する新しいADAフレームワークであるDiaNA(Divide-and-Adapt)を提案する。
不確実性とドメイン性に基づく新しいデータ分割プロトコルにより、DiaNAは最も有利なサンプルを正確に認識することができる。
の精神のおかげで、DiaNAはドメインギャップの大きなバリエーションでデータを処理できる。
論文 参考訳(メタデータ) (2023-07-21T14:37:17Z) - Learning Feature Decomposition for Domain Adaptive Monocular Depth
Estimation [51.15061013818216]
改良されたアプローチは、深層学習の進歩で大きな成功をもたらしたが、それらは大量の地底深度アノテーションに依存している。
教師なしドメイン適応(UDA)は、教師付き学習の制約を緩和するため、ラベル付きソースデータからラベルなしターゲットデータに知識を転送する。
本稿では,その特徴空間をコンテンツやスタイルコンポーネントに分解することを学ぶための,学習特徴分解 for Adaptation (LFDA) と呼ばれる新しいMDEのためのUDA手法を提案する。
論文 参考訳(メタデータ) (2022-07-30T08:05:35Z) - Flexible deep transfer learning by separate feature embeddings and
manifold alignment [0.0]
オブジェクト認識は、業界と防衛において重要な存在である。
残念ながら、既存のラベル付きデータセットでトレーニングされたアルゴリズムは、データ分布が一致しないため、直接新しいデータに一般化しない。
本稿では,各領域の特徴抽出を個別に学習することで,この制限を克服する新しいディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-22T19:24:44Z) - Selective Pseudo-Labeling with Reinforcement Learning for
Semi-Supervised Domain Adaptation [116.48885692054724]
半教師付きドメイン適応のための強化学習に基づく選択擬似ラベル法を提案する。
高精度かつ代表的な擬似ラベルインスタンスを選択するための深層Q-ラーニングモデルを開発する。
提案手法は, SSDAのベンチマークデータセットを用いて評価し, 全ての比較手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-12-07T03:37:38Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z) - Online Meta-Learning for Multi-Source and Semi-Supervised Domain
Adaptation [4.1799778475823315]
本稿では,既存のDAアルゴリズムの初期条件をメタラーニングすることで,性能向上のためのフレームワークを提案する。
マルチソース非教師付きドメイン適応(MSDA)と半教師付きドメイン適応(SSDA)の両方の変種を提示する。
最大規模のDomainNetを含む,いくつかのDAベンチマークで得られた成果を報告する。
論文 参考訳(メタデータ) (2020-04-09T07:48:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。