論文の概要: Statistical Learning Guarantees for Compressive Clustering and
Compressive Mixture Modeling
- arxiv url: http://arxiv.org/abs/2004.08085v3
- Date: Tue, 17 Aug 2021 07:29:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 14:02:59.790497
- Title: Statistical Learning Guarantees for Compressive Clustering and
Compressive Mixture Modeling
- Title(参考訳): 圧縮クラスタリングと圧縮混合モデリングのための統計的学習保証
- Authors: R\'emi Gribonval (PANAMA, DANTE), Gilles Blanchard (LMO), Nicolas
Keriven (GIPSA-GAIA), Yann Traonmilin (IMB)
- Abstract要約: 圧縮統計的学習の原理は、トレーニングコレクションを1回のパスで低次元のスケッチに圧縮し、検討された学習タスクに関連する情報をキャプチャすることである。
本研究では, 圧縮クラスタリングと圧縮ガウス混合モデルに必要な情報を保存する経験的平均値を持つランダムな特徴関数を明示的に記述し, 解析する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We provide statistical learning guarantees for two unsupervised learning
tasks in the context of compressive statistical learning, a general framework
for resource-efficient large-scale learning that we introduced in a companion
paper.The principle of compressive statistical learning is to compress a
training collection, in one pass, into a low-dimensional sketch (a vector of
random empirical generalized moments) that captures the information relevant to
the considered learning task. We explicitly describe and analyze random feature
functions which empirical averages preserve the needed information for
compressive clustering and compressive Gaussian mixture modeling with fixed
known variance, and establish sufficient sketch sizes given the problem
dimensions.
- Abstract(参考訳): 本稿では,2つの教師なし学習課題に対する統計的学習保証を,同紙に紹介した資源効率の高い大規模学習の一般的な枠組みである圧縮統計的学習の文脈において提供し,その原理は,学習課題に関連する情報を収集する低次元スケッチ(ランダムな経験的一般化モーメントのベクトル)に,トレーニングコレクションを1パスで圧縮することである。
実験平均値が圧縮的クラスタリングと圧縮的ガウス混合モデルに必要な情報を保存するランダム特徴関数を,固定された既知の分散で明示的に記述・解析し,問題次元から十分なスケッチサイズを確立する。
関連論文リスト
- Byzantine-Robust and Communication-Efficient Distributed Learning via Compressed Momentum Filtering [17.446431849022346]
分散学習は、プライベートデータサイロにわたる大規模機械学習モデルをトレーニングするための標準アプローチとなっている。
堅牢性とコミュニケーションの保存に関する重要な課題に直面している。
本稿では,ビザンチン・ロバスト・コミュニケーション効率の高い分散学習手法を提案する。
論文 参考訳(メタデータ) (2024-09-13T08:53:10Z) - Collaborative Learning with Different Labeling Functions [7.228285747845779]
我々は、$n$のデータ分布ごとに正確な分類器を学習することを目的とした、協調型PAC学習の亜種について研究する。
データ分布がより弱い実現可能性の仮定を満たす場合、サンプル効率の学習は依然として可能であることを示す。
論文 参考訳(メタデータ) (2024-02-16T04:32:22Z) - Specify Robust Causal Representation from Mixed Observations [35.387451486213344]
観測から純粋に表現を学習することは、予測モデルに有利な低次元のコンパクトな表現を学習する問題を懸念する。
本研究では,観測データからこのような表現を学習するための学習手法を開発した。
理論的および実験的に、学習された因果表現で訓練されたモデルは、敵の攻撃や分布シフトの下でより堅牢であることを示す。
論文 参考訳(メタデータ) (2023-10-21T02:18:35Z) - Supervised Multivariate Learning with Simultaneous Feature Auto-grouping
and Dimension Reduction [7.093830786026851]
本稿では,クラスタ化低ランク学習フレームワークを提案する。
2つの合同行列正則化を課し、予測因子を構成する特徴を自動的にグループ化する。
低ランクなモデリングよりも解釈可能であり、変数選択における厳密な空間性仮定を緩和する。
論文 参考訳(メタデータ) (2021-12-17T20:11:20Z) - Differential privacy and robust statistics in high dimensions [49.50869296871643]
高次元Propose-Test-Release (HPTR) は指数的メカニズム、頑健な統計、Propose-Test-Release メカニズムという3つの重要なコンポーネントの上に構築されている。
本論文では,HPTRが複数のシナリオで最適サンプル複雑性をほぼ達成していることを示す。
論文 参考訳(メタデータ) (2021-11-12T06:36:40Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Counterfactual Representation Learning with Balancing Weights [74.67296491574318]
観察データによる因果推論の鍵は、それぞれの治療タイプに関連する予測的特徴のバランスを達成することである。
近年の文献では、この目標を達成するために表現学習を探求している。
因果効果を柔軟かつスケーラブルかつ正確に推定するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-10-23T19:06:03Z) - Learning, compression, and leakage: Minimising classification error via
meta-universal compression principles [87.054014983402]
学習シナリオのための圧縮技法の有望なグループは、正規化極大(NML)符号化である。
ここでは,教師付き分類問題に対するNMLに基づく意思決定戦略を検討し,多種多様なモデルに適用した場合にPAC学習を実現することを示す。
本手法の誤分類率は,プライバシに敏感なシナリオにおいて,データ漏洩の可能性を定量化するための指標である最大リークによって上限づけられていることを示す。
論文 参考訳(メタデータ) (2020-10-14T20:03:58Z) - Sketching Datasets for Large-Scale Learning (long version) [24.478376776509045]
圧縮学習(Compressive Learning)は、データセットを学習前に大量に圧縮する大規模機械学習のアプローチである。
スケッチはまず、慎重に選択された非線形ランダムな特徴を計算し、データセット全体にわたって平均化する。
パラメータは、元のデータセットにアクセスすることなく、スケッチから学習される。
論文 参考訳(メタデータ) (2020-08-04T21:29:05Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z) - Compressing Large Sample Data for Discriminant Analysis [78.12073412066698]
判別分析フレームワーク内での大きなサンプルサイズに起因する計算問題を考察する。
線形および二次判別分析のためのトレーニングサンプル数を削減するための新しい圧縮手法を提案する。
論文 参考訳(メタデータ) (2020-05-08T05:09:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。