論文の概要: A Contrastive Objective for Learning Disentangled Representations
- arxiv url: http://arxiv.org/abs/2203.11284v1
- Date: Mon, 21 Mar 2022 18:56:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-23 13:10:40.713525
- Title: A Contrastive Objective for Learning Disentangled Representations
- Title(参考訳): 対角表現学習のための対比的目標
- Authors: Jonathan Kahana, Yedid Hoshen
- Abstract要約: 機密属性や望ましくない属性に不変な画像の学習表現は、バイアス除去やクロスドメイン検索を含む多くのタスクにおいて重要である。
我々は、不変表現を保証するために、新しいドメインワイドコントラスト目的を提案する新しいアプローチを提案する。
広範な評価において,提案手法は表現の不変性,表現の伝達性,学習速度の点で,最先端の手法を確実に上回っている。
- 参考スコア(独自算出の注目度): 32.36217153362305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning representations of images that are invariant to sensitive or
unwanted attributes is important for many tasks including bias removal and
cross domain retrieval. Here, our objective is to learn representations that
are invariant to the domain (sensitive attribute) for which labels are
provided, while being informative over all other image attributes, which are
unlabeled. We present a new approach, proposing a new domain-wise contrastive
objective for ensuring invariant representations. This objective crucially
restricts negative image pairs to be drawn from the same domain, which enforces
domain invariance whereas the standard contrastive objective does not. This
domain-wise objective is insufficient on its own as it suffers from shortcut
solutions resulting in feature suppression. We overcome this issue by a
combination of a reconstruction constraint, image augmentations and
initialization with pre-trained weights. Our analysis shows that the choice of
augmentations is important, and that a misguided choice of augmentations can
harm the invariance and informativeness objectives. In an extensive evaluation,
our method convincingly outperforms the state-of-the-art in terms of
representation invariance, representation informativeness, and training speed.
Furthermore, we find that in some cases our method can achieve excellent
results even without the reconstruction constraint, leading to a much faster
and resource efficient training.
- Abstract(参考訳): 機密属性や不要属性に不変な画像の学習表現は、バイアス除去やクロスドメイン検索を含む多くのタスクにおいて重要である。
ここでの目標は、ラベルが提供されているドメイン(センシティブな属性)に不変な表現を学習し、ラベルのない他のすべての画像属性に情報を提供することです。
本稿では,不変表現を保証するための新しい領域的コントラスト目標を提案する。
この目的は、負のイメージペアを同じ領域から引き出すことを決定的に制限し、標準のコントラストの目的がそうではないのに対して、ドメイン不変性を強制する。
このドメイン指向の目標は、ショートカットソリューションに苦しむため、それ自体では不十分であり、機能抑制に繋がる。
本稿では,再構成制約,画像拡張,初期化と事前学習重みを組み合わせることで,この問題を克服した。
分析の結果,拡張の選択は重要であり,拡張の誤った選択は,分散と情報化の目的を損なう可能性が示唆された。
広範な評価において,本手法は,表現の不変性,表現のインフォメーション性,トレーニング速度の点で,最先端を説得力で上回っている。
さらに, 再建制約を伴わずに優れた結果が得られる場合もあり, より高速かつ資源効率の訓練が可能であることが判明した。
関連論文リスト
- Pixel-Level Domain Adaptation: A New Perspective for Enhancing Weakly Supervised Semantic Segmentation [13.948425538725138]
画素単位の領域不変性を学習する際のモデルとして,Pixel-Level Domain Adaptation (PLDA)法を提案する。
我々は,幅広い環境下でのアプローチの有効性を実験的に実証した。
論文 参考訳(メタデータ) (2024-08-04T14:14:54Z) - Regularizing Self-training for Unsupervised Domain Adaptation via
Structural Constraints [14.593782939242121]
本稿では,従来の自己学習目標を正規化するために,奥行きなどの補助的モーダルから構造的手がかりを取り入れることを提案する。
具体的には、オブジェクトインスタンスの近い領域内でピクセル表現をプルする、対照的なピクセルレベルのオブジェクト性制約を導入する。
セマンティックセグメンテーションのための様々な UDA ベンチマークにおいて,正則化器は最上位の自己学習手法を大幅に改善することを示す。
論文 参考訳(メタデータ) (2023-04-29T00:12:26Z) - SGDR: Semantic-guided Disentangled Representation for Unsupervised
Cross-modality Medical Image Segmentation [5.090366802287405]
本稿では,セグメンテーションタスクにおいて意味論的に意味のある特徴を正確に表現するために,意味誘導非絡み合い表現(SGDR)と呼ばれる新しいフレームワークを提案する。
提案手法を2つの公開データセットで検証し, 実験結果から, 2つの評価指標における工法の現状を, 有意差で比較した。
論文 参考訳(メタデータ) (2022-03-26T08:31:00Z) - Semi-supervised Semantic Segmentation with Directional Context-aware
Consistency [66.49995436833667]
我々は、ラベル付きデータの小さなセットに、全くラベル付けされていない画像のより大きなコレクションを提供する半教師付きセグメンテーション問題に焦点をあてる。
好ましいハイレベル表現は、自己認識を失わずにコンテキスト情報をキャプチャするべきである。
我々は,DCロス(Directional Contrastive Loss)を画素対ピクセルの整合性を達成するために提示する。
論文 参考訳(メタデータ) (2021-06-27T03:42:40Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Few-Shot Learning with Part Discovery and Augmentation from Unlabeled
Images [79.34600869202373]
帰納的バイアスは、ラベルなし画像の平坦な集合から学習でき、目に見えるクラスと目に見えないクラスの間で伝達可能な表現としてインスタンス化されることを示す。
具体的には、トランスファー可能な表現を学習するための、新しいパートベース自己教師型表現学習手法を提案する。
我々の手法は印象的な結果をもたらし、それまでの最高の教師なし手法を7.74%、9.24%上回った。
論文 参考訳(メタデータ) (2021-05-25T12:22:11Z) - What Should Not Be Contrastive in Contrastive Learning [110.14159883496859]
本稿では,タスク依存不変性に関する事前知識を必要としない,対照的な学習フレームワークを提案する。
我々のモデルは、異なる埋め込み空間を構築することで、視覚表現の様々な要因や不変要素を捉えることを学習する。
我々は、共有バックボーンを持つマルチヘッドネットワークを使用し、各オーグメンテーションにまたがる情報をキャプチャし、ダウンストリームタスクにおけるすべてのベースラインより優れている。
論文 参考訳(メタデータ) (2020-08-13T03:02:32Z) - Target Consistency for Domain Adaptation: when Robustness meets
Transferability [8.189696720657247]
学習不変表現(Learning Invariant Representations)は、ソースとUnsupervised Domain Adaptationのターゲットドメインの調整に成功している。
ソースドメインに保持されているにもかかわらず、クラスタの仮定がターゲットドメインで違反していることを示す。
我々の新しいアプローチは、画像分類とセグメンテーションベンチマークの両方において、大幅な改善をもたらす。
論文 参考訳(メタデータ) (2020-06-25T09:13:00Z) - Domain-aware Visual Bias Eliminating for Generalized Zero-Shot Learning [150.42959029611657]
ドメイン対応ビジュアルバイアス除去(DVBE)ネットワークは2つの相補的な視覚表現を構成する。
目に見えない画像に対しては、最適なセマンティック・視覚アライメントアーキテクチャを自動で検索する。
論文 参考訳(メタデータ) (2020-03-30T08:17:04Z) - Fairness by Learning Orthogonal Disentangled Representations [50.82638766862974]
不変表現問題に対する新しい非絡み合い手法を提案する。
エントロピーによりセンシティブな情報に依存しない有意義な表現を強制する。
提案手法は5つの公開データセットで評価される。
論文 参考訳(メタデータ) (2020-03-12T11:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。