論文の概要: Universal Adaptive Environment Discovery
- arxiv url: http://arxiv.org/abs/2510.12547v1
- Date: Tue, 14 Oct 2025 14:10:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.344622
- Title: Universal Adaptive Environment Discovery
- Title(参考訳): ユニバーサル適応型環境発見
- Authors: Madi Matymov, Ba-Hien Tran, Maurizio Filippone,
- Abstract要約: 環境をインスタンス化するデータ変換の分散を学習する統合フレームワークを提案する。
UAEDは、事前に定義されたグループや手動の環境設計なしに、IRM、REx、GroupDRO、Coralの適応的なバリエーションを出力する。
以上の結果から,環境適応化はアウト・オブ・ディストリビューションの一般化への実践的経路であることが示唆された。
- 参考スコア(独自算出の注目度): 9.289361622607453
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An open problem in Machine Learning is how to avoid models to exploit spurious correlations in the data; a famous example is the background-label shortcut in the Waterbirds dataset. A common remedy is to train a model across multiple environments; in the Waterbirds dataset, this corresponds to training by randomizing the background. However, selecting the right environments is a challenging problem, given that these are rarely known a priori. We propose Universal Adaptive Environment Discovery (UAED), a unified framework that learns a distribution over data transformations that instantiate environments, and optimizes any robust objective averaged over this learned distribution. UAED yields adaptive variants of IRM, REx, GroupDRO, and CORAL without predefined groups or manual environment design. We provide a theoretical analysis by providing PAC-Bayes bounds and by showing robustness to test environment distributions under standard conditions. Empirically, UAED discovers interpretable environment distributions and improves worst-case accuracy on standard benchmarks, while remaining competitive on mean accuracy. Our results indicate that making environments adaptive is a practical route to out-of-distribution generalization.
- Abstract(参考訳): 機械学習のオープンな問題は、データ内の急激な相関を利用するモデルを避ける方法である。
一般的な治療法は、複数の環境にわたってモデルをトレーニングすることだ。Waterbirdsデータセットでは、バックグラウンドをランダムにすることでトレーニングに対応する。
しかしながら、適切な環境を選択することは難しい問題であり、これらが先入観として知られていることは滅多にない。
UAED(Universal Adaptive Environment Discovery)は、環境をインスタンス化するデータ変換上の分散を学習し、この学習された分布に対して平均化されたロバストな目標を最適化する統一的なフレームワークである。
UAEDは、事前定義されたグループや手動の環境設計なしに、IRM、REx、GroupDRO、Coralの適応的なバリエーションを出力する。
我々は、PAC-Bayes境界を提供し、標準条件下での環境分布のテストにロバスト性を示すことによって理論的解析を行う。
経験的に、UAEDは解釈可能な環境分布を発見し、標準ベンチマークで最悪のケース精度を向上する一方で、平均精度で競争力を維持する。
以上の結果から,環境適応化はアウト・オブ・ディストリビューションの一般化への実践的経路であることが示唆された。
関連論文リスト
- Group Distributionally Robust Machine Learning under Group Level Distributional Uncertainty [14.693433974739213]
本稿では,各群における分布の不確実性を考慮した分散ロバスト最適化(DRO)に基づく新しいフレームワークを提案する。
提案したDRO問題の解法と収束結果を提供するために勾配降下指数アルゴリズムを開発した。
論文 参考訳(メタデータ) (2025-09-10T19:08:17Z) - Theoretically Guaranteed Distribution Adaptable Learning [23.121014921407898]
分散適応学習(DAL)と呼ばれる新しいフレームワークを提案する。
DALは、進化するデータ分散を効果的に追跡することを可能にする。
進化する分布を調節する上で、DALの再利用性と進化性を高めることができる。
論文 参考訳(メタデータ) (2024-11-05T09:10:39Z) - Trained Models Tell Us How to Make Them Robust to Spurious Correlation without Group Annotation [3.894771553698554]
経験的リスク最小化(ERM)モデルは、ターゲットと高い刺激的な相関を持つ属性に依存する傾向がある。
これにより、これらの属性を欠いた未表現(または'マイナー')グループのパフォーマンスを低下させることができる。
本稿では,環境に基づく検証と損失に基づくサンプリング(EVaLS)を提案する。
論文 参考訳(メタデータ) (2024-10-07T08:17:44Z) - Decorr: Environment Partitioning for Invariant Learning and OOD Generalization [10.799855921851332]
不変学習手法は、複数の環境にまたがる一貫した予測器を特定することを目的としている。
データに固有の環境がなければ、実践者はそれらを手動で定義しなければならない。
この環境分割は不変学習の有効性に影響を及ぼすが、いまだ過小評価されていない。
本稿では,低相関データサブセットを分離することで,データセットを複数の環境に分割することを提案する。
論文 参考訳(メタデータ) (2022-11-18T06:49:35Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Differentiable Invariant Causal Discovery [106.87950048845308]
観測データから因果構造を学ぶことは、機械学習の基本的な課題である。
本稿では,不特定変分因果解法(DICD)を提案する。
合成および実世界のデータセットに関する大規模な実験は、DICDがSHDの36%まで最先端の因果発見手法より優れていることを検証している。
論文 参考訳(メタデータ) (2022-05-31T09:29:07Z) - Accuracy on the Line: On the Strong Correlation Between
Out-of-Distribution and In-Distribution Generalization [89.73665256847858]
分布外性能は,広範囲なモデルと分布シフトに対する分布内性能と強く相関していることを示す。
具体的には,CIFAR-10 と ImageNet の変種に対する分布内分布と分布外分布性能の強い相関関係を示す。
また,CIFAR-10-Cと組織分類データセットCamelyon17-WILDSの合成分布の変化など,相関が弱いケースについても検討した。
論文 参考訳(メタデータ) (2021-07-09T19:48:23Z) - Predict then Interpolate: A Simple Algorithm to Learn Stable Classifiers [59.06169363181417]
Predict then Interpolate (PI) は環境全体にわたって安定な相関関係を学習するためのアルゴリズムである。
正しい予測と間違った予測の分布を補間することにより、不安定な相関が消えるオラクル分布を明らかにすることができる。
論文 参考訳(メタデータ) (2021-05-26T15:37:48Z) - Environment Inference for Invariant Learning [9.63004099102596]
環境推論を組み込んだドメイン不変学習フレームワークであるEIILを提案する。
EIILは環境ラベルを使わずにCMNISTベンチマークの不変学習法より優れていることを示す。
また、EIILとアルゴリズムフェアネスの接続を確立することにより、公平な予測問題において、EIILは精度とキャリブレーションを改善することができる。
論文 参考訳(メタデータ) (2020-10-14T17:11:46Z) - Unshuffling Data for Improved Generalization [65.57124325257409]
トレーニングディストリビューションを越えた一般化は、マシンラーニングにおける中核的な課題である。
本研究では,複数の学習環境として扱われる非d.d.サブセットにデータを分割することで,アウト・オブ・ディストリビューションの一般化を向上したモデル学習を導出できることを示す。
論文 参考訳(メタデータ) (2020-02-27T03:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。