論文の概要: Unsupervised domain adaptation via coarse-to-fine feature alignment
method using contrastive learning
- arxiv url: http://arxiv.org/abs/2103.12371v1
- Date: Tue, 23 Mar 2021 08:12:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 13:53:22.372670
- Title: Unsupervised domain adaptation via coarse-to-fine feature alignment
method using contrastive learning
- Title(参考訳): コントラスト学習を用いた粗い特徴アライメント法による教師なし領域適応
- Authors: Shiyu Tang, Peijun Tang, Yanxiang Gong, Zheng Ma, Mei Xie
- Abstract要約: CFContraと呼ばれるコントラスト学習を用いた粗大な特徴アライメント手法を提案する。
これは、粗い特徴のアライメントやクラス的な特徴のアライメントだけに近づきます。
特に,セマンティクスセグメンテーションに対比的損失を適用する場合の過大なメモリ占有を防止するために,メモリバンクを構築し更新する新しい方法を提案する。
- 参考スコア(独自算出の注目度): 3.766510519275168
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous feature alignment methods in Unsupervised domain adaptation(UDA)
mostly only align global features without considering the mismatch between
class-wise features. In this work, we propose a new coarse-to-fine feature
alignment method using contrastive learning called CFContra. It draws
class-wise features closer than coarse feature alignment or class-wise feature
alignment only, therefore improves the model's performance to a great extent.
We build it upon one of the most effective methods of UDA called entropy
minimization to further improve performance. In particular, to prevent
excessive memory occupation when applying contrastive loss in semantic
segmentation, we devise a new way to build and update the memory bank. In this
way, we make the algorithm more efficient and viable with limited memory.
Extensive experiments show the effectiveness of our method and model trained on
the GTA5 to Cityscapes dataset has boost mIOU by 3.5 compared to the MinEnt
algorithm. Our code will be publicly available.
- Abstract(参考訳): 非教師付きドメイン適応(UDA)における以前の機能アライメント手法は、クラスワイド機能間のミスマッチを考慮せずに、大域的機能のみをアライメントする。
そこで本研究では,CFContraと呼ばれるコントラスト学習を用いた特徴アライメント手法を提案する。
これは、粗い機能アライメントやクラスワイド機能アライメントよりもクラスワイドの機能を引き出すため、モデルの性能を大幅に改善する。
エントロピー最小化(Entropy minimization)と呼ばれる,UDAの最も効果的な手法の1つである。
特に,セマンティクスセグメンテーションに対比的損失を適用する場合の過大なメモリ占有を防止するために,メモリバンクを構築し更新する新しい方法を提案する。
このようにして、限られたメモリでアルゴリズムをより効率的かつ有効にする。
GTA5からCityscapesのデータセットでトレーニングした手法とモデルの有効性は、MinEntアルゴリズムと比較して3.5倍に向上した。
私たちのコードは公開されます。
関連論文リスト
- Unified Gradient-Based Machine Unlearning with Remain Geometry Enhancement [29.675650285351768]
深層ニューラルネットワークのプライバシーと信頼性を高めるために、機械学習(MU)が登場した。
近似MUは大規模モデルの実用的手法である。
本稿では,最新の学習方向を暗黙的に近似する高速スローパラメータ更新手法を提案する。
論文 参考訳(メタデータ) (2024-09-29T15:17:33Z) - Anti-Collapse Loss for Deep Metric Learning Based on Coding Rate Metric [99.19559537966538]
DMLは、分類、クラスタリング、検索といった下流タスクのための識別可能な高次元埋め込み空間を学習することを目的としている。
埋め込み空間の構造を維持し,特徴の崩壊を避けるために,反崩壊損失と呼ばれる新しい損失関数を提案する。
ベンチマークデータセットの総合実験により,提案手法が既存の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-03T13:44:20Z) - VeLoRA: Memory Efficient Training using Rank-1 Sub-Token Projections [35.133698935322634]
大規模言語モデル(LLM)は、最近、多くの言語処理タスクに対処するための強力なツールとして登場した。
勾配勾配勾配を用いた効率的なモデル収束に必要な重要な成分を同定し,特徴付ける。
この結果から, 微調整と事前学習の両方のための, 安価かつメモリ効率のよいアルゴリズムが得られた。
論文 参考訳(メタデータ) (2024-05-28T09:23:14Z) - Discriminative Sample-Guided and Parameter-Efficient Feature Space Adaptation for Cross-Domain Few-Shot Learning [0.0]
クロスドメインの少ショット分類は、それまで見つからなかった領域で新しいクラスを学ぶという難しい課題を示す。
我々は,小データセット上の多数のパラメータの微調整に伴うオーバーフィッティングに対処する,軽量なパラメータ効率適応手法を提案する。
我々は,従来の遠心波を識別的サンプル認識損失関数に置き換え,クラス間およびクラス内分散に対するモデルの感度を高める。
論文 参考訳(メタデータ) (2024-03-07T13:49:29Z) - Class-Imbalanced Semi-Supervised Learning for Large-Scale Point Cloud
Semantic Segmentation via Decoupling Optimization [64.36097398869774]
半教師付き学習(SSL)は大規模3Dシーン理解のための活発な研究課題である。
既存のSSLベースのメソッドは、クラス不均衡とポイントクラウドデータのロングテール分布による厳しいトレーニングバイアスに悩まされている。
本稿では,特徴表現学習と分類器を別の最適化方法で切り離してバイアス決定境界を効果的にシフトする,新しいデカップリング最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:16:40Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - Style Interleaved Learning for Generalizable Person Re-identification [69.03539634477637]
DG ReIDトレーニングのための新しいスタイルインターリーブラーニング(IL)フレームワークを提案する。
従来の学習戦略とは異なり、ILには2つの前方伝播と1つの後方伝播が組み込まれている。
我々のモデルはDG ReIDの大規模ベンチマークにおいて最先端の手法を一貫して上回ることを示す。
論文 参考訳(メタデータ) (2022-07-07T07:41:32Z) - Bi-level Alignment for Cross-Domain Crowd Counting [113.78303285148041]
現在の手法は、補助的なタスクを訓練したり、高価な粗大な見積もりを適用したりするための外部データに依存している。
そこで我々は, 簡易かつ効率的に適用可能な, 逆学習に基づく新しい手法を開発した。
実世界の5つのクラウドカウントベンチマークに対するアプローチを評価し、既存のアプローチを大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-05-12T02:23:25Z) - Prior Guided Feature Enrichment Network for Few-Shot Segmentation [64.91560451900125]
最先端のセマンティックセグメンテーション手法は、良い結果を得るために十分なラベル付きデータを必要とする。
少数のラベル付きサポートサンプルを持つ新しいクラスに迅速に適応するモデルを学習することで,この問題に対処するためのショットセグメンテーションが提案されている。
これらのフレームワークは、高レベルのセマンティック情報の不適切な使用により、目に見えないクラスにおける一般化能力の低下という課題に直面している。
論文 参考訳(メタデータ) (2020-08-04T10:41:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。