論文の概要: A Unified Joint Maximum Mean Discrepancy for Domain Adaptation
- arxiv url: http://arxiv.org/abs/2101.09979v1
- Date: Mon, 25 Jan 2021 09:46:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 19:02:53.869139
- Title: A Unified Joint Maximum Mean Discrepancy for Domain Adaptation
- Title(参考訳): ドメイン適応のための統一結合最大平均差分法
- Authors: Wei Wang, Baopu Li, Shuhui Yang, Jing Sun, Zhengming Ding, Junyang
Chen, Xiao Dong, Zhihui Wang, Haojie Li
- Abstract要約: 本論文は,最適化が容易なjmmdの統一形式を理論的に導出する。
統合JMMDから、JMMDは分類に有利な特徴ラベル依存を低下させることを示す。
本稿では,その依存を促進する新たなmmd行列を提案し,ラベル分布シフトにロバストな新しいラベルカーネルを考案する。
- 参考スコア(独自算出の注目度): 73.44809425486767
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Domain adaptation has received a lot of attention in recent years, and many
algorithms have been proposed with impressive progress. However, it is still
not fully explored concerning the joint probability distribution (P(X, Y))
distance for this problem, since its empirical estimation derived from the
maximum mean discrepancy (joint maximum mean discrepancy, JMMD) will involve
complex tensor-product operator that is hard to manipulate. To solve this
issue, this paper theoretically derives a unified form of JMMD that is easy to
optimize, and proves that the marginal, class conditional and weighted class
conditional probability distribution distances are our special cases with
different label kernels, among which the weighted class conditional one not
only can realize feature alignment across domains in the category level, but
also deal with imbalance dataset using the class prior probabilities. From the
revealed unified JMMD, we illustrate that JMMD degrades the feature-label
dependence (discriminability) that benefits to classification, and it is
sensitive to the label distribution shift when the label kernel is the weighted
class conditional one. Therefore, we leverage Hilbert Schmidt independence
criterion and propose a novel MMD matrix to promote the dependence, and devise
a novel label kernel that is robust to label distribution shift. Finally, we
conduct extensive experiments on several cross-domain datasets to demonstrate
the validity and effectiveness of the revealed theoretical results.
- Abstract(参考訳): ドメイン適応は近年多くの注目を集めており、多くのアルゴリズムが目覚ましい進歩をもって提案されている。
しかし、最大平均誤差(結合平均誤差、JMMD)から導かれる経験的推定は、操作が難しい複雑なテンソル積演算子を含むため、この問題に対する関節確率分布(P(X, Y))距離についてはまだ完全には検討されていない。
本論文では,JMMDの最適化が容易な統一型JMMDを理論的に導出し,境界,クラス条件,重み付きクラスの条件付き確率分布距離がラベルカーネルの異なる特殊な場合であることを証明し,重み付きクラスの条件付き分布は,カテゴリレベルの領域間の特徴アライメントを実現するだけでなく,クラス先行確率を用いた不均衡データセットにも対処できる。
その結果,jmmdは分類に有利な特徴ラベル依存(識別可能性)を低下させ,ラベルカーネルが重み付きクラス条件付きである場合のラベル分布変化に敏感であることが分かった。
そこで、ヒルベルト・シュミットの独立基準を活用し、依存を促進するために新しいMDD行列を提案し、ラベル分散シフトに堅牢な新しいラベルカーネルを考案する。
最後に,いくつかのクロスドメインデータセットについて広範な実験を行い,理論結果の有効性と有効性を示す。
関連論文リスト
- SimPro: A Simple Probabilistic Framework Towards Realistic Long-Tailed Semi-Supervised Learning [49.94607673097326]
ラベルなしデータの分散に関する前提を前提としない、高度に適応可能なフレームワークをSimProとして提案する。
我々のフレームワークは確率モデルに基づいており、期待最大化アルゴリズムを革新的に洗練する。
本手法は,様々なベンチマークやデータ分散シナリオにまたがる一貫した最先端性能を示す。
論文 参考訳(メタデータ) (2024-02-21T03:39:04Z) - Anomaly Detection Under Uncertainty Using Distributionally Robust
Optimization Approach [0.9217021281095907]
異常検出は、大多数のパターンに従わないデータポイントを見つける問題として定義される。
1クラスのサポートベクトルマシン(SVM)メソッドは、通常のデータポイントと異常を区別するための決定境界を見つけることを目的としている。
誤分類の確率が低い分布的に頑健な確率制約モデルを提案する。
論文 参考訳(メタデータ) (2023-12-03T06:13:22Z) - Out-Of-Domain Unlabeled Data Improves Generalization [0.7589678255312519]
本稿では,ラベルなしデータを半教師付き分類問題に組み込む新しい枠組みを提案する。
ラベルのないサンプルは一般化ギャップを狭めるために利用できることを示す。
我々は、さまざまな合成および実世界のデータセットで実施された実験を通じて、我々の主張を検証する。
論文 参考訳(メタデータ) (2023-09-29T02:00:03Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning [97.88458953075205]
Pseudo-labelingは、ラベルなしデータを利用するための人気で効果的なアプローチとして登場した。
本稿では,クラスアウェアの擬似ラベル処理を行うCAP(Class-Aware Pseudo-Labeling)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:52:18Z) - MaxMatch: Semi-Supervised Learning with Worst-Case Consistency [149.03760479533855]
半教師付き学習(SSL)のための最悪ケース整合正則化手法を提案する。
本稿では,ラベル付きトレーニングデータとラベル付きトレーニングデータとを別々に比較した経験的損失項からなるSSLの一般化について述べる。
この境界によって動機づけられたSSLの目的は、元のラベルのないサンプルと、その複数の拡張版との最大の矛盾を最小限に抑えるものである。
論文 参考訳(メタデータ) (2022-09-26T12:04:49Z) - From Optimality to Robustness: Dirichlet Sampling Strategies in
Stochastic Bandits [0.0]
本研究では、腕の観察を再サンプリングした経験的指標のペア比較に基づいて、ジェネリックディリクレサンプリング(DS)アルゴリズムについて検討する。
この戦略の異なる変種は、分布が有界であるときに証明可能な最適後悔保証と、半有界分布に対して軽度量子状態の対数後悔を実現することを示す。
論文 参考訳(メタデータ) (2021-11-18T14:34:21Z) - Conditional Bures Metric for Domain Adaptation [14.528711361447712]
教師なしドメイン適応(UDA)は近年広く注目を集めている。
従来のUDA法では、ラベル分布の識別情報を無視しながら、異なるドメインの限界分布がシフトしていると仮定していた。
本研究では,現在の条件不変モデルに大きな関心を持つ条件分布シフト問題に焦点をあてる。
論文 参考訳(メタデータ) (2021-07-31T18:06:31Z) - Towards Discriminability and Diversity: Batch Nuclear-norm Maximization
under Label Insufficient Situations [154.51144248210338]
Batch Nuclear-norm Maximization (BNM) は、学習シナリオのラベルが不十分な場合の学習を促進するために提案されている。
BNMはライバルより優れており、既存のよく知られた手法でうまく機能する。
論文 参考訳(メタデータ) (2020-03-27T05:04:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。