論文の概要: Improving generalisation via anchor multivariate analysis
- arxiv url: http://arxiv.org/abs/2403.01865v1
- Date: Mon, 4 Mar 2024 09:21:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-03-06 19:29:24.944010
- Title: Improving generalisation via anchor multivariate analysis
- Title(参考訳): アンカー多変量解析による一般化の改善
- Authors: Homer Durand, Gherardo Varando, Gustau Camps-Valls, Nathan Mankovich
- Abstract要約: そこで我々は,ORD(out-of-distribution)一般化を改善するために,因果正則化拡張をアンカー回帰(AR)に導入した。
分散シフトに対してロバスト性を確保するために、アンカーフレームワークと整合して、アンカー互換の損失を提示する。
単純な正規化はOOD設定の堅牢性を高めることを観察する。
- 参考スコア(独自算出の注目度): 4.755199731453481
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce a causal regularisation extension to anchor regression (AR) for
improved out-of-distribution (OOD) generalisation. We present anchor-compatible
losses, aligning with the anchor framework to ensure robustness against
distribution shifts. Various multivariate analysis (MVA) algorithms, such as
(Orthonormalized) PLS, RRR, and MLR, fall within the anchor framework. We
observe that simple regularisation enhances robustness in OOD settings.
Estimators for selected algorithms are provided, showcasing consistency and
efficacy in synthetic and real-world climate science problems. The empirical
validation highlights the versatility of anchor regularisation, emphasizing its
compatibility with MVA approaches and its role in enhancing replicability while
guarding against distribution shifts. The extended AR framework advances causal
inference methodologies, addressing the need for reliable OOD generalisation.
- Abstract(参考訳): 我々は,out-of-distribution(ood)一般化を改善するために,アンカー回帰(ar)に対する因果正規化拡張を導入する。
我々は、分散シフトに対する堅牢性を確保するために、anchorフレームワークと連携して、anchor互換の損失を示す。
様々な多変量解析(MVA)アルゴリズム、例えば(オルソノーマライズされた)PLS、RR、MLRはアンカーフレームワークに該当する。
単純な正規化はOOD設定の堅牢性を高める。
合成および実世界の気候科学問題における一貫性と有効性を示す、選択されたアルゴリズムに対する推定器を提供する。
実証的検証はアンカー正規化の汎用性を強調し、mvaアプローチとの互換性と、分布シフトをガードしながら再現性を高める役割を強調している。
拡張されたARフレームワークは因果推論手法を進化させ、信頼性の高いOOD一般化の必要性に対処する。
関連論文リスト
- Regularization for Adversarial Robust Learning [18.46110328123008]
我々は,$phi$-divergence正規化を分散ロバストなリスク関数に組み込む,対角訓練のための新しい手法を開発した。
この正規化は、元の定式化と比較して計算の顕著な改善をもたらす。
本研究では,教師付き学習,強化学習,文脈学習において提案手法の有効性を検証し,様々な攻撃に対して最先端の性能を示す。
論文 参考訳(メタデータ) (2024-08-19T03:15:41Z) - Generalization Bounds of Surrogate Policies for Combinatorial Optimization Problems [61.580419063416734]
最近の構造化学習手法のストリームは、様々な最適化問題に対する技術の実践的状態を改善している。
鍵となる考え方は、インスタンスを別々に扱うのではなく、インスタンス上の統計分布を利用することだ。
本稿では,最適化を容易にし,一般化誤差を改善するポリシを摂動することでリスクを円滑にする手法について検討する。
論文 参考訳(メタデータ) (2024-07-24T12:00:30Z) - Bridging Multicalibration and Out-of-distribution Generalization Beyond Covariate Shift [44.708914058803224]
マルチキャリブレーションによるアウト・オブ・ディストリビューションの一般化のための新しいモデルに依存しない最適化フレームワークを構築した。
本稿では,マルチキャリブレーションとアウト・オブ・ディストリビューションの一般化を両立させるポストプロセッシングアルゴリズムMC-Pseudolabelを提案する。
論文 参考訳(メタデータ) (2024-06-02T08:11:35Z) - From Robustness to Improved Generalization and Calibration in Pre-trained Language Models [0.0]
本稿では,前訓練言語モデル(PLM)の性能向上において,ジャコビアン正規化とヘッセン正規化によって達成される表現の滑らかさの役割について検討する。
PLM中間表現におけるヤコビ行列とヘッセン行列のノルムを最小化する新しい二相正規化手法であるジャコビウスを導入する。
GLUEベンチマークを用いて評価したところ, JacHess は PLM の領域内一般化とキャリブレーションを大幅に改善することがわかった。
論文 参考訳(メタデータ) (2024-03-31T18:08:37Z) - Towards Robust Out-of-Distribution Generalization Bounds via Sharpness [41.65692353665847]
モデルがドメインシフトにおけるデータ変化を許容する方法にシャープさが及ぼす影響について検討する。
強靭性を考慮したシャープネスに基づくOOD一般化を提案する。
論文 参考訳(メタデータ) (2024-03-11T02:57:27Z) - Diagnosing and Rectifying Fake OOD Invariance: A Restructured Causal
Approach [51.012396632595554]
不変表現学習(IRL)は、不変因果的特徴から環境から切り離されたラベルへの予測を促進する。
最近の理論的結果は、IRLによって回復されたいくつかの因果的特徴は、訓練環境ではドメイン不変のふりをするが、目に見えない領域では失敗する。
本研究では,RS-SCMに関する条件付き相互情報に基づく手法を開発し,その効果を巧みに補正する。
論文 参考訳(メタデータ) (2023-12-15T12:58:05Z) - A Unified Approach to Controlling Implicit Regularization via Mirror
Descent [18.536453909759544]
ミラー降下(MD)は勾配降下(GD)の顕著な一般化である
MDを効率的に実装することができ、適切な条件下での高速収束を享受できることを示す。
論文 参考訳(メタデータ) (2023-06-24T03:57:26Z) - Improved OOD Generalization via Conditional Invariant Regularizer [43.62211060412388]
クラスラベルが与えられた場合、スプリアス属性の条件付き独立モデルがOOD一般であることが示される。
このような条件独立度を測定するために,OOD誤差を制御する計量条件変分(CSV)を提案する。
この問題を解決するために,ミニケーブ収束率のアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-14T06:34:21Z) - Optimistic Rates: A Unifying Theory for Interpolation Learning and
Regularization in Linear Regression [35.78863301525758]
我々は「最適化率」として知られる一様収束の局所的概念を研究する。
改良された解析は既存の結果の隠れ定数と対数係数を回避している。
論文 参考訳(メタデータ) (2021-12-08T18:55:00Z) - Trustworthy Multimodal Regression with Mixture of Normal-inverse Gamma
Distributions [91.63716984911278]
このアルゴリズムは、異なるモードの適応的統合の原理における不確かさを効率的に推定し、信頼できる回帰結果を生成する。
実世界のデータと実世界のデータの両方に対する実験結果から,多モード回帰タスクにおける本手法の有効性と信頼性が示された。
論文 参考訳(メタデータ) (2021-11-11T14:28:12Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Policy Mirror Descent for Regularized Reinforcement Learning: A
Generalized Framework with Linear Convergence [60.20076757208645]
本稿では,正規化RLを解くためのGPMDアルゴリズムを提案する。
我々は,このアルゴリズムが次元自由な方法で,全範囲の学習率に線形に収束することを実証した。
論文 参考訳(メタデータ) (2021-05-24T02:21:34Z) - Posterior Differential Regularization with f-divergence for Improving
Model Robustness [95.05725916287376]
クリーン入力とノイズ入力のモデル後部差を規則化する手法に着目する。
後微分正則化を$f$-divergencesの族に一般化する。
実験の結果, 後方微分を$f$-divergenceで正規化することで, モデルロバスト性の向上が期待できることがわかった。
論文 参考訳(メタデータ) (2020-10-23T19:58:01Z) - On dissipative symplectic integration with applications to
gradient-based optimization [77.34726150561087]
本稿では,離散化を体系的に実現する幾何学的枠組みを提案する。
我々は、シンプレクティックな非保守的、特に散逸的なハミルトン系への一般化が、制御された誤差まで収束率を維持することができることを示す。
論文 参考訳(メタデータ) (2020-04-15T00:36:49Z) - Statistically Guided Divide-and-Conquer for Sparse Factorization of
Large Matrix [2.345015036605934]
統計的問題をスパース係数回帰として定式化し、分割コンカレントアプローチでそれに取り組む。
第1段階分割では、タスクを1組の同時並列推定(CURE)問題に単純化するための2つの潜時並列アプローチについて検討する。
第2段階分割では、CUREの全解を効率的に追跡するために、一連の単純な増分経路からなる段階学習手法を革新する。
論文 参考訳(メタデータ) (2020-03-17T19:12:21Z) - Distributional Robustness and Regularization in Reinforcement Learning [62.23012916708608]
経験値関数の新しい正規化器を導入し、ワッサーシュタイン分布のロバストな値関数を下限とすることを示す。
強化学習における$textitexternalな不確実性に対処するための実用的なツールとして正規化を使用することを提案する。
論文 参考訳(メタデータ) (2020-03-05T19:56:23Z) - Target-Embedding Autoencoders for Supervised Representation Learning [111.07204912245841]
本稿では,対象空間が高次元な純粋教師付き環境における一般化の枠組みを解析する。
我々は、教師付き予測のための目標埋め込みオートエンコーダ(TEA)の一般的なフレームワークのモチベーションと形式化を行い、特徴とターゲットの予測の両方から予測可能なように最適化された中間潜在表現を学習する。
論文 参考訳(メタデータ) (2020-01-23T02:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。