論文の概要: Environment Inference for Invariant Learning
- arxiv url: http://arxiv.org/abs/2010.07249v5
- Date: Thu, 15 Jul 2021 17:21:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 12:34:07.153090
- Title: Environment Inference for Invariant Learning
- Title(参考訳): 不変学習のための環境推論
- Authors: Elliot Creager, J\"orn-Henrik Jacobsen, Richard Zemel
- Abstract要約: 環境推論を組み込んだドメイン不変学習フレームワークであるEIILを提案する。
EIILは環境ラベルを使わずにCMNISTベンチマークの不変学習法より優れていることを示す。
また、EIILとアルゴリズムフェアネスの接続を確立することにより、公平な予測問題において、EIILは精度とキャリブレーションを改善することができる。
- 参考スコア(独自算出の注目度): 9.63004099102596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning models that gracefully handle distribution shifts is central to
research on domain generalization, robust optimization, and fairness. A
promising formulation is domain-invariant learning, which identifies the key
issue of learning which features are domain-specific versus domain-invariant.
An important assumption in this area is that the training examples are
partitioned into "domains" or "environments". Our focus is on the more common
setting where such partitions are not provided. We propose EIIL, a general
framework for domain-invariant learning that incorporates Environment Inference
to directly infer partitions that are maximally informative for downstream
Invariant Learning. We show that EIIL outperforms invariant learning methods on
the CMNIST benchmark without using environment labels, and significantly
outperforms ERM on worst-group performance in the Waterbirds and CivilComments
datasets. Finally, we establish connections between EIIL and algorithmic
fairness, which enables EIIL to improve accuracy and calibration in a fair
prediction problem.
- Abstract(参考訳): 分布シフトを優雅に扱う学習モデルは、領域一般化、堅牢な最適化、公平性の研究の中心である。
有望な定式化は、ドメイン不変学習(domain-invariant learning)である。
この領域で重要な前提は、トレーニング例が“ドメイン”あるいは“環境”に分割されていることです。
私たちの焦点は、そのようなパーティションが提供されないより一般的な設定にあります。
本稿では,環境推論を取り入れ,下流不変学習に最も有益であるパーティションを直接推論する,ドメイン不変学習の汎用フレームワークであるeiilを提案する。
EIILは環境ラベルを使わずにCMNISTベンチマークの不変学習法より優れており、Waterbirds and CivilCommentsデータセットの最悪のグループ性能において、ERMよりも優れていた。
最後に,aiilとアルゴリズム的公平性の関係を確立し,公平な予測問題における精度とキャリブレーションの改善を可能にする。
関連論文リスト
- Decorr: Environment Partitioning for Invariant Learning and OOD Generalization [10.799855921851332]
不変学習手法は、複数の環境にまたがる一貫した予測器を特定することを目的としている。
データに固有の環境がなければ、実践者はそれらを手動で定義しなければならない。
この環境分割は不変学習の有効性に影響を及ぼすが、いまだ過小評価されていない。
本稿では,低相関データサブセットを分離することで,データセットを複数の環境に分割することを提案する。
論文 参考訳(メタデータ) (2022-11-18T06:49:35Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Repeated Environment Inference for Invariant Learning [8.372465442144046]
ベイズ最適条件ラベル分布が異なる環境において同じである場合、不変表現の概念に焦点を当てる。
従来の作業は、不変リスク最小化(IRM)フレームワークからペナルティ項を最大化することで環境推論(EI)を行う。
本手法は, 合成データセットと実世界のデータセットの両方において, ベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-07-26T13:07:22Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - On the benefits of representation regularization in invariance based
domain generalization [6.197602794925773]
ドメインの一般化は、観測された環境と見えない環境の間のこのような予測ギャップを軽減することを目的としている。
本稿では、単に不変表現の学習が、目に見えない環境に対して脆弱であることを明らかにする。
さらに, 領域一般化におけるロバスト性向上のための効率的な正則化手法を考案した。
論文 参考訳(メタデータ) (2021-05-30T13:13:55Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Domain Adaptation in LiDAR Semantic Segmentation by Aligning Class
Distributions [9.581605678437032]
この研究は、LiDARセマンティックセグメンテーションモデルに対する教師なしドメイン適応の問題に対処する。
我々のアプローチは、現在の最先端のアプローチの上に新しいアイデアを結合し、新しい最先端の成果をもたらす。
論文 参考訳(メタデータ) (2020-10-23T08:52:15Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Adaptively-Accumulated Knowledge Transfer for Partial Domain Adaptation [66.74638960925854]
部分ドメイン適応(PDA)は、ソースドメインラベル空間がターゲットドメインを置き換えるとき、現実的で困難な問題を扱う。
本稿では,2つの領域にまたがる関連カテゴリを整合させる適応的知識伝達フレームワーク(A$2KT)を提案する。
論文 参考訳(メタデータ) (2020-08-27T00:53:43Z) - Adaptive Risk Minimization: Learning to Adapt to Domain Shift [109.87561509436016]
ほとんどの機械学習アルゴリズムの基本的な前提は、トレーニングとテストデータは、同じ基礎となる分布から引き出されることである。
本研究では,学習データをドメインに構造化し,複数のテスト時間シフトが存在する場合の領域一般化の問題点について考察する。
本稿では、適応リスク最小化(ARM)の枠組みを紹介し、モデルがトレーニング領域に適応することを学ぶことで、効果的な適応のために直接最適化される。
論文 参考訳(メタデータ) (2020-07-06T17:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。