論文の概要: Generalized Invariant Matching Property via LASSO
- arxiv url: http://arxiv.org/abs/2301.05975v1
- Date: Sat, 14 Jan 2023 21:09:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 17:56:16.016439
- Title: Generalized Invariant Matching Property via LASSO
- Title(参考訳): LASSOによる一般化不変マッチング特性
- Authors: Kang Du and Yu Xiang
- Abstract要約: 本研究では,内在空間の高次元問題を定式化することにより,不変マッチング特性を一般化する。
本稿では,Lassoの変種を利用して,より堅牢で計算効率の良いアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 19.786769414376323
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning under distribution shifts is a challenging task. One principled
approach is to exploit the invariance principle via the structural causal
models. However, the invariance principle is violated when the response is
intervened, making it a difficult setting. In a recent work, the invariant
matching property has been developed to shed light on this scenario and shows
promising performance. In this work, we generalize the invariant matching
property by formulating a high-dimensional problem with intrinsic sparsity. We
propose a more robust and computation-efficient algorithm by leveraging a
variant of Lasso, improving upon the existing algorithms.
- Abstract(参考訳): 分散シフトの下での学習は難しい課題です。
1つの原則的アプローチは、構造因果モデルを通して不変原理を利用することである。
しかし、応答が介入されたときに不変原理が破られ、それは難しい設定となる。
最近の研究で、このシナリオに光を当てるために不変マッチングプロパティが開発され、有望なパフォーマンスを示している。
本研究では,内在空間の高次元問題を定式化することにより,不変マッチング特性を一般化する。
我々は,lassoの変種を活用して,既存のアルゴリズムを改良し,より堅牢で計算効率の高いアルゴリズムを提案する。
関連論文リスト
- Unnatural Algorithms in Machine Learning [0.0]
この特性を持つ最適化アルゴリズムは、自然勾配降下の離散近似とみなすことができる。
本稿では、この自然性をより一般的に導入する簡単な方法を紹介し、多くの一般的な機械学習トレーニングアルゴリズムについて検討する。
論文 参考訳(メタデータ) (2023-12-07T22:43:37Z) - Domain Generalization In Robust Invariant Representation [10.132611239890345]
本稿では,分布外データに基づく不変表現の一般化について検討する。
不変モデルは分布シフトに頑健な非構造潜在表現を学習することを示す。
論文 参考訳(メタデータ) (2023-04-07T00:58:30Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Object Representations as Fixed Points: Training Iterative Refinement
Algorithms with Implicit Differentiation [88.14365009076907]
反復的洗練は表現学習に有用なパラダイムである。
トレーニングの安定性とトラクタビリティを向上させる暗黙の差別化アプローチを開発する。
論文 参考訳(メタデータ) (2022-07-02T10:00:35Z) - Invariant Causal Mechanisms through Distribution Matching [86.07327840293894]
本研究では、因果的視点と不変表現を学習するための新しいアルゴリズムを提供する。
実験により,このアルゴリズムは様々なタスク群でうまく動作し,特にドメインの一般化における最先端のパフォーマンスを観察する。
論文 参考訳(メタデータ) (2022-06-23T12:06:54Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Conditional entropy minimization principle for learning domain invariant
representation features [30.459247038765568]
本稿では,条件付きエントロピー最小化原理に基づくフレームワークを提案する。
提案手法はよく知られたInformation Bottleneckフレームワークと密接に関連していることを示す。
論文 参考訳(メタデータ) (2022-01-25T17:02:12Z) - A Variational Inference Approach to Inverse Problems with Gamma
Hyperpriors [60.489902135153415]
本稿では,ガンマハイパープライヤを用いた階層的逆問題に対する変分反復交替方式を提案する。
提案した変分推論手法は正確な再構成を行い、意味のある不確実な定量化を提供し、実装が容易である。
論文 参考訳(メタデータ) (2021-11-26T06:33:29Z) - Provably Strict Generalisation Benefit for Equivariant Models [1.332560004325655]
不変/等価であるモデルのエンジニアリングは一般化を改善すると広く信じられている。
本稿では,不変/等価モデルに対する一般化における最初の非ゼロ改善について述べる。
論文 参考訳(メタデータ) (2021-02-20T12:47:32Z) - Invariant Integration in Deep Convolutional Feature Space [77.99182201815763]
より深いニューラルネットワークアーキテクチャに事前知識を原則的に組み込む方法を示す。
本稿では,Rotated-MNISTデータセットの最先端性能について報告する。
論文 参考訳(メタデータ) (2020-04-20T09:45:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。