論文の概要: Information Geometrically Generalized Covariate Shift Adaptation
- arxiv url: http://arxiv.org/abs/2304.09387v1
- Date: Wed, 19 Apr 2023 02:52:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-20 15:36:40.799189
- Title: Information Geometrically Generalized Covariate Shift Adaptation
- Title(参考訳): 情報幾何学的に一般化された共変量シフト適応
- Authors: Masanari Kimura and Hideitsu Hino
- Abstract要約: 多くの機械学習手法は、トレーニングとテストデータが同じ分布に従うと仮定する。
共変量シフト適応手法の有名なファミリーは情報幾何学の枠組みで統一されていることを示す。
数値実験により、我々の一般化は既存の手法よりも優れた性能が得られることが示された。
- 参考スコア(独自算出の注目度): 5.990174495635326
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many machine learning methods assume that the training and test data follow
the same distribution. However, in the real world, this assumption is very
often violated. In particular, the phenomenon that the marginal distribution of
the data changes is called covariate shift, one of the most important research
topics in machine learning. We show that the well-known family of covariate
shift adaptation methods is unified in the framework of information geometry.
Furthermore, we show that parameter search for geometrically generalized
covariate shift adaptation method can be achieved efficiently. Numerical
experiments show that our generalization can achieve better performance than
the existing methods it encompasses.
- Abstract(参考訳): 多くの機械学習手法は、トレーニングとテストデータが同じ分布に従うと仮定する。
しかし、現実の世界では、この仮定はしばしば違反している。
特に、データの変化の限界分布が共変量シフト(covariate shift)と呼ばれる現象は、機械学習における最も重要な研究トピックの1つである。
共変量シフト適応手法の有名なファミリーは情報幾何学の枠組みで統一されていることを示す。
さらに,幾何学的に一般化された共変量シフト適応手法のパラメータ探索を効率的に行うことができることを示す。
数値実験により、我々の一般化は既存の手法よりも優れた性能が得られることが示された。
関連論文リスト
- Learning Divergence Fields for Shift-Robust Graph Representations [73.11818515795761]
本研究では,相互依存データに対する問題に対して,学習可能な分散場を持つ幾何学的拡散モデルを提案する。
因果推論によって新たな学習目標が導出され、ドメイン間で無神経な相互依存の一般化可能なパターンを学習するためのモデルが導出される。
論文 参考訳(メタデータ) (2024-06-07T14:29:21Z) - High-Dimensional Undirected Graphical Models for Arbitrary Mixed Data [2.2871867623460207]
多くのアプリケーションでは、データは異なるタイプの変数にまたがる。
最近の進歩は、バイナリ連続ケースにどのように取り組めるかを示しているが、一般的な混合変数型構造は依然として困難である。
完全混合型の変数を持つデータに対して,フレキシブルでスケーラブルな手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T18:21:31Z) - SARAH-based Variance-reduced Algorithm for Stochastic Finite-sum
Cocoercive Variational Inequalities [137.6408511310322]
有限サムコヒーレンシブ変分不等式の問題を考える。
強い単調な問題に対しては、この方法を用いて解への線形収束を達成することができる。
論文 参考訳(メタデータ) (2022-10-12T08:04:48Z) - Equivariant Disentangled Transformation for Domain Generalization under
Combination Shift [91.38796390449504]
ドメインとラベルの組み合わせは、トレーニング中に観察されるのではなく、テスト環境に現れる。
我々は、同型の概念、同値性、および整合性の定義に基づく結合シフト問題の一意的な定式化を提供する。
論文 参考訳(メタデータ) (2022-08-03T12:31:31Z) - Equivariance Discovery by Learned Parameter-Sharing [153.41877129746223]
データから解釈可能な等価性を発見する方法について検討する。
具体的には、モデルのパラメータ共有方式に対する最適化問題として、この発見プロセスを定式化する。
また,ガウスデータの手法を理論的に解析し,研究された発見スキームとオラクルスキームの間の平均2乗ギャップを限定する。
論文 参考訳(メタデータ) (2022-04-07T17:59:19Z) - Deep invariant networks with differentiable augmentation layers [87.22033101185201]
データ拡張ポリシーの学習方法は、保持データを必要とし、二段階最適化の問題に基づいている。
我々のアプローチは、現代の自動データ拡張技術よりも訓練が簡単で高速であることを示す。
論文 参考訳(メタデータ) (2022-02-04T14:12:31Z) - The Role of Mutual Information in Variational Classifiers [47.10478919049443]
クロスエントロピー損失を訓練した符号化に依存する分類器の一般化誤差について検討する。
我々は、一般化誤差が相互情報によって境界付けられた状態が存在することを示す一般化誤差に境界を導出する。
論文 参考訳(メタデータ) (2020-10-22T12:27:57Z) - Effective Sample Size, Dimensionality, and Generalization in Covariate
Shift Adaptation [0.0]
教師あり学習において,サンプルサイズ,次元性,モデル性能/一般化がどの程度有効かを示す。
本稿では,ESS,データ次元,一般化を結合する統一ビューの構築に焦点をあてる。
論文 参考訳(メタデータ) (2020-10-02T20:22:59Z) - Spherical Feature Transform for Deep Metric Learning [58.35971328774927]
本研究は,新しい球面特徴変換手法を提案する。
これは、クラス間の同一共分散の仮定を、超球面上の異なるクラスの類似共分散の仮定に緩和する。
本研究では,2つの異なる変換間の関係について,簡便かつ効果的な学習法と深度解析を行う。
論文 参考訳(メタデータ) (2020-08-04T11:32:23Z) - Density Fixing: Simple yet Effective Regularization Method based on the
Class Prior [2.3859169601259347]
本稿では,教師付き・半教師付き学習によく用いられる密度固定法という正規化手法の枠組みを提案する。
提案手法は,モデルの事前分布や発生頻度を近似させることで,一般化性能を向上させる。
論文 参考訳(メタデータ) (2020-07-08T04:58:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。