論文の概要: Invariance Learning based on Label Hierarchy
- arxiv url: http://arxiv.org/abs/2203.15549v1
- Date: Tue, 29 Mar 2022 13:31:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 13:30:03.272015
- Title: Invariance Learning based on Label Hierarchy
- Title(参考訳): ラベル階層に基づく不変学習
- Authors: Shoji Toyota, Kenji Fukumizu
- Abstract要約: Deep Neural Networksは、トレーニングデータに埋め込まれた急激な相関関係を継承する。
Invariance Learning (IL) はこの欠点を克服するために最近開発されている。
本稿では,複数の領域におけるデータトレーニングの要件を克服する新しいILフレームワークを提案する。
- 参考スコア(独自算出の注目度): 17.53032543377636
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Neural Networks inherit spurious correlations embedded in training data
and hence may fail to predict desired labels on unseen domains (or
environments), which have different distributions from the domain used in
training. Invariance Learning (IL) has been developed recently to overcome this
shortcoming; using training data in many domains, IL estimates such a predictor
that is invariant to a change of domain. However, the requirement of training
data in multiple domains is a strong restriction of IL, since it often needs
high annotation cost. We propose a novel IL framework to overcome this problem.
Assuming the availability of data from multiple domains for a higher level of
classification task, for which the labeling cost is low, we estimate an
invariant predictor for the target classification task with training data in a
single domain. Additionally, we propose two cross-validation methods for
selecting hyperparameters of invariance regularization to solve the issue of
hyperparameter selection, which has not been handled properly in existing IL
methods. The effectiveness of the proposed framework, including the
cross-validation, is demonstrated empirically, and the correctness of the
hyperparameter selection is proved under some conditions.
- Abstract(参考訳): 深層ニューラルネットワークは、トレーニングデータに埋め込まれたスプリアス相関を継承するので、トレーニングに使用されるドメインとは異なる分布を持つ、未知のドメイン(あるいは環境)で所望のラベルを予測できない可能性がある。
Invariance Learning (IL) はこの欠点を克服するために最近開発され、多くのドメインでのトレーニングデータを用いて、ILはドメインの変更に不変な予測器を推定する。
しかし、複数のドメインにおけるデータトレーニングの要件は、高いアノテーションコストを必要とすることが多いため、ILの強い制約である。
この問題を克服する新しいILフレームワークを提案する。
ラベル付けコストが低い高レベル分類タスクに対して,複数のドメインからのデータが利用可能であると仮定し,単一ドメインのトレーニングデータを用いて,対象分類タスクの不変予測器を推定する。
さらに,既存のil法では適切に処理されていないハイパーパラメータ選択の問題を解決するために,非分散正規化のハイパーパラメータを選択するための2つのクロスバリデーション手法を提案する。
クロスバリデーションを含む提案手法の有効性を実証的に示し,いくつかの条件下でハイパーパラメータ選択の正確性が証明された。
関連論文リスト
- Calibrated Adaptive Teacher for Domain Adaptive Intelligent Fault
Diagnosis [7.88657961743755]
教師なしのドメイン適応(UDA)は、ラベル付きデータがソースドメインで利用可能であり、ラベルなしデータがターゲットドメインでのみ利用可能であるシナリオを扱う。
本稿では,自己学習過程を通じて教師ネットワークの予測を校正する,Calibrated Adaptive Teacher (CAT) と呼ばれる新しいUDA手法を提案する。
論文 参考訳(メタデータ) (2023-12-05T15:19:29Z) - centroIDA: Cross-Domain Class Discrepancy Minimization Based on
Accumulative Class-Centroids for Imbalanced Domain Adaptation [17.97306640457707]
IDA(centroIDA)の累積クラスセントロイドに基づくドメイン間差分最小化手法を提案する。
実験により,IDA問題,特にラベルシフトの程度が増大する中で,本手法が他のSOTA法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-21T10:35:32Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Certainty Volume Prediction for Unsupervised Domain Adaptation [35.984559137218504]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ラベルなしのターゲットドメインデータを分類する問題を扱う。
特徴空間における多変量ガウス分布としての不確かさをモデル化する新しい不確実性対応領域適応構成を提案する。
提案したパイプラインを、挑戦的なUDAデータセットに基づいて評価し、最先端の結果を得る。
論文 参考訳(メタデータ) (2021-11-03T11:22:55Z) - OVANet: One-vs-All Network for Universal Domain Adaptation [78.86047802107025]
既存のメソッドは、検証または未知のサンプルの事前定義された比率に基づいて未知のサンプルを拒否するしきい値を手動で設定します。
本稿では,ソースサンプルを用いて閾値を学習し,対象領域に適応する手法を提案する。
私たちの考えは、ソースドメインの最小クラス間距離は、ターゲットの既知のか未知かを決定するための良いしきい値であるべきです。
論文 参考訳(メタデータ) (2021-04-07T18:36:31Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Weak Adaptation Learning -- Addressing Cross-domain Data Insufficiency
with Weak Annotator [2.8672054847109134]
一部のターゲット問題ドメインでは、学習プロセスを妨げる可能性のあるデータサンプルがあまりありません。
類似のソースドメインからのラベルなしデータを活用した弱い適応学習(wal)手法を提案する。
本実験は,対象領域に限定されたラベル付きデータを含む正確な分類器を学習する手法の有効性を示す。
論文 参考訳(メタデータ) (2021-02-15T06:19:25Z) - Open-Set Hypothesis Transfer with Semantic Consistency [99.83813484934177]
本稿では,対象データの変換における意味的一貫性に着目した手法を提案する。
本モデルはまず,自信ある予測を発見し,擬似ラベルを用いた分類を行う。
その結果、ラベルなしデータは、ソースクラスまたは未知のクラスに一致した識別クラスに分類される。
論文 参考訳(メタデータ) (2020-10-01T10:44:31Z) - Inductive Unsupervised Domain Adaptation for Few-Shot Classification via
Clustering [16.39667909141402]
ショットの分類は、多様なドメインに適応する必要がある場合、苦労する傾向があります。
本稿では、ClusteringによるFew-shot分類のためのドメイン適応性能を改善するためのフレームワークDaFeCを紹介する。
提案手法は, 絶対利得(分類精度)が4.95%, 9.55%, 3.99%, 11.62%であった。
論文 参考訳(メタデータ) (2020-06-23T08:17:48Z) - A Balanced and Uncertainty-aware Approach for Partial Domain Adaptation [142.31610972922067]
この研究は、特にターゲットドメインのクラスラベルがソースドメインのサブセットである場合に、教師なしのドメイン適応問題に対処する。
本稿では,ドメイン逆境学習に基づく新しいドメイン適応手法 BA$3$US を提案し,BAA(Ba balanced Adversarial Alignment)とAUS(Adaptive Uncertainty Suppression)の2つの新しい手法を提案する。
複数のベンチマーク実験の結果、BA$3$USが部分的なドメイン適応タスクの最先端を超越していることが示されている。
論文 参考訳(メタデータ) (2020-03-05T11:37:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。