論文の概要: Which Invariance Should We Transfer? A Causal Minimax Learning Approach
- arxiv url: http://arxiv.org/abs/2107.01876v5
- Date: Tue, 30 May 2023 13:37:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 03:24:51.819477
- Title: Which Invariance Should We Transfer? A Causal Minimax Learning Approach
- Title(参考訳): どの不変性を移行すべきか?
因果的ミニマックス学習アプローチ
- Authors: Mingzhou Liu, Xiangyu Zheng, Xinwei Sun, Fang Fang, Yizhou Wang
- Abstract要約: 本稿では、因果的観点からの包括的ミニマックス分析について述べる。
最小の最悪のリスクを持つサブセットを探索する効率的なアルゴリズムを提案する。
本手法の有効性と有効性は, 合成データとアルツハイマー病の診断で実証された。
- 参考スコア(独自算出の注目度): 18.71316951734806
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A major barrier to deploying current machine learning models lies in their
non-reliability to dataset shifts. To resolve this problem, most existing
studies attempted to transfer stable information to unseen environments.
Particularly, independent causal mechanisms-based methods proposed to remove
mutable causal mechanisms via the do-operator. Compared to previous methods,
the obtained stable predictors are more effective in identifying stable
information. However, a key question remains: which subset of this whole stable
information should the model transfer, in order to achieve optimal
generalization ability? To answer this question, we present a comprehensive
minimax analysis from a causal perspective. Specifically, we first provide a
graphical condition for the whole stable set to be optimal. When this condition
fails, we surprisingly find with an example that this whole stable set,
although can fully exploit stable information, is not the optimal one to
transfer. To identify the optimal subset under this case, we propose to
estimate the worst-case risk with a novel optimization scheme over the
intervention functions on mutable causal mechanisms. We then propose an
efficient algorithm to search for the subset with minimal worst-case risk,
based on a newly defined equivalence relation between stable subsets. Compared
to the exponential cost of exhaustively searching over all subsets, our
searching strategy enjoys a polynomial complexity. The effectiveness and
efficiency of our methods are demonstrated on synthetic data and the diagnosis
of Alzheimer's disease.
- Abstract(参考訳): 現在の機械学習モデルのデプロイにおける大きな障壁は、データセットシフトへの信頼性の欠如にある。
この問題を解決するために、既存のほとんどの研究は安定した情報を目に見えない環境に転送しようとした。
特に, 個別因果機構に基づく, 可変因果機構の除去手法が提案されている。
従来の方法と比較して,安定な予測器は安定な情報を特定するのに効果的である。
しかし、重要な疑問は残る: 最適な一般化能力を達成するために、この安定な情報のどの部分集合がモデル転送をすべきなのか?
そこで本研究では,因果的観点からの包括的ミニマックス解析を提案する。
具体的には、まず、安定集合全体が最適となるためのグラフィカルな条件を提供する。
この条件が失敗すると、この安定な集合全体が完全に安定な情報を活用できるが、転送する最適な集合ではないという例で驚く。
この場合の最適部分集合を同定するために,可変因果機構上の介入関数よりも新しい最適化手法を用いて,最悪のリスクを推定する。
次に,安定部分集合間の新たに定義された同値関係に基づいて,最小の最悪のリスクで部分集合を探索する効率的なアルゴリズムを提案する。
全ての部分集合を網羅的に探索する指数的コストと比較して、我々の探索戦略は多項式複雑性を享受する。
本手法の有効性と有効性は, 合成データとアルツハイマー病の診断により実証された。
関連論文リスト
- Forecasting Outside the Box: Application-Driven Optimal Pointwise Forecasts for Stochastic Optimization [0.0]
本稿では,未知の状況の最適近似を導出する統合学習と最適化手法を提案する。
文献の在庫問題と実データを用いた自転車共有問題から得られた数値結果から,提案手法が有効であることを示す。
論文 参考訳(メタデータ) (2024-11-05T21:54:50Z) - Rigorous Probabilistic Guarantees for Robust Counterfactual Explanations [80.86128012438834]
モデルシフトに対する反ファクトの堅牢性を計算することはNP完全であることを示す。
本稿では,頑健性の厳密な推定を高い保証で実現する新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2024-07-10T09:13:11Z) - Optimal Multi-Distribution Learning [88.3008613028333]
マルチディストリビューション学習は、$k$の異なるデータ分散における最悪のリスクを最小限に抑える共有モデルを学ぶことを目指している。
本稿では, (d+k)/varepsilon2の順に, サンプルの複雑さを伴って, ヴァレプシロン最適ランダム化仮説を導出するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-08T16:06:29Z) - Maximum Likelihood Estimation is All You Need for Well-Specified
Covariate Shift [34.414261291690856]
現代の機械学習システムの鍵となる課題は、アウト・オブ・ディストリビューション(OOD)の一般化を達成することである。
音源データを用いた古典的最大等化推定(MLE)が極小最適化を実現することを示す。
3つの具体例にインスタンス化することで、フレームワークの幅広い適用性を説明します。
論文 参考訳(メタデータ) (2023-11-27T16:06:48Z) - Domain Adaptation under Missingness Shift [38.650099178537864]
欠損度シフト(DAMS)下におけるドメイン適応問題について紹介する。
欠落したデータのレートは、しばしば記録保持ポリシーに依存するため、時間や場所によって変化する可能性がある。
合成データおよび半合成データの実験において,仮定が成立する際の手法の可能性を実証した。
論文 参考訳(メタデータ) (2022-11-03T18:49:38Z) - Pessimistic Minimax Value Iteration: Provably Efficient Equilibrium
Learning from Offline Datasets [101.5329678997916]
両プレイヤーゼロサムマルコフゲーム(MG)をオフライン環境で研究する。
目標は、事前収集されたデータセットに基づいて、近似的なナッシュ均衡(NE)ポリシーペアを見つけることである。
論文 参考訳(メタデータ) (2022-02-15T15:39:30Z) - Complexity-Free Generalization via Distributionally Robust Optimization [4.313143197674466]
分散ロバスト最適化(DRO)から解の一般化境界を得るための代替経路を提案する。
我々の DRO 境界は、あいまいな集合の幾何と真の損失関数との整合性に依存する。
特に、DRO距離計量として最大平均誤差を用いる場合、我々の分析は、我々の知識の最も良いところは、真の損失関数にのみ依存する文献における第一の一般化であることを示している。
論文 参考訳(メタデータ) (2021-06-21T15:19:52Z) - Navigating to the Best Policy in Markov Decision Processes [68.8204255655161]
マルコフ決定過程における純粋探索問題について検討する。
エージェントはアクションを逐次選択し、結果のシステム軌道から可能な限り早くベストを目標とする。
論文 参考訳(メタデータ) (2021-06-05T09:16:28Z) - Evaluating Model Robustness and Stability to Dataset Shift [7.369475193451259]
機械学習モデルの安定性を解析するためのフレームワークを提案する。
本手法では,アルゴリズムが性能の悪い分布を決定するために,元の評価データを用いる。
我々は,アルゴリズムの性能を"Worst-case"分布で推定する。
論文 参考訳(メタデータ) (2020-10-28T17:35:39Z) - The Risks of Invariant Risk Minimization [52.7137956951533]
不変リスク最小化(Invariant Risk Minimization)は、データの深い不変性を学ぶという考え方に基づく目標である。
我々は、IRMの目的に基づく分類の最初の分析と、最近提案されたこれらの代替案について、かなり自然で一般的なモデルで分析する。
IRMは、テストデータがトレーニング分布と十分に類似していない限り、破滅的に失敗する可能性がある。
論文 参考訳(メタデータ) (2020-10-12T14:54:32Z) - Distributionally Robust Bayesian Optimization [121.71766171427433]
そこで本研究では,ゼロ次雑音最適化のための分散ロバストなベイズ最適化アルゴリズム(DRBO)を提案する。
提案アルゴリズムは, 種々の設定において, 線形に頑健な後悔を確実に得る。
提案手法は, 実世界のベンチマークと実世界のベンチマークの両方において, 頑健な性能を示す。
論文 参考訳(メタデータ) (2020-02-20T22:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。