論文の概要: When compressive learning fails: blame the decoder or the sketch?
- arxiv url: http://arxiv.org/abs/2009.08273v1
- Date: Mon, 14 Sep 2020 12:53:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 11:49:55.383874
- Title: When compressive learning fails: blame the decoder or the sketch?
- Title(参考訳): 圧縮学習が失敗すると、デコーダかスケッチを責めるのか?
- Authors: Vincent Schellekens and Laurent Jacques
- Abstract要約: 圧縮学習では、モデルとして機能する高度に圧縮されたベクトルから混合(セントロイドまたは混合物)が学習される。
- 参考スコア(独自算出の注目度): 13.704881067616995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In compressive learning, a mixture model (a set of centroids or a Gaussian
mixture) is learned from a sketch vector, that serves as a highly compressed
representation of the dataset. This requires solving a non-convex optimization
problem, hence in practice approximate heuristics (such as CLOMPR) are used. In
this work we explore, by numerical simulations, properties of this non-convex
optimization landscape and those heuristics.
- Abstract(参考訳): 圧縮学習では、データセットの高度に圧縮された表現として機能する混合モデル(セントロイドまたはガウス混合)がスケッチベクトルから学習される。
これは非凸最適化問題の解法を必要とするため、実際には近似ヒューリスティック(CLOMPRなど)が用いられる。
本研究では, この非凸最適化景観の性質とヒューリスティックスについて, 数値シミュレーションにより考察する。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Understanding Contrastive Learning via Gaussian Mixture Models [19.51336063093898]
コントラスト学習(特にInfoNCE損失)を自然な文脈で分析する。
ガウス群が等方的でない場合でも、バニラInfoNCEが最適の下次元部分空間を見つけることができることを示す。
この設定では、対照的な学習が漁師最適部分空間のサブセットを学習し、学習した表現から全てのノイズを効果的に除去することを示す。
論文 参考訳(メタデータ) (2024-11-05T21:43:05Z) - Fast Semisupervised Unmixing Using Nonconvex Optimization [80.11512905623417]
半/ライブラリベースのアンミックスのための新しい凸凸モデルを提案する。
スパース・アンミキシングの代替手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-01-23T10:07:41Z) - Compressive Recovery of Sparse Precision Matrices [5.557600489035657]
我々は,$d$変数の統計的関係を,mathbbRn times d$の$n$サンプル$Xのデータセットからモデル化するグラフの学習問題を考察する。
サイズ $m=Omegaleft((d+2k)log(d)right)$ ここで、$k$は基礎となるグラフのエッジの最大数である。
本稿では, グラフィカルラッソに基づく反復アルゴリズムを用いて, 具体的デノイザとみなす実用的リカバリを実現する可能性について検討する。
論文 参考訳(メタデータ) (2023-11-08T13:29:08Z) - Learning Graphical Factor Models with Riemannian Optimization [70.13748170371889]
本稿では,低ランク構造制約下でのグラフ学習のためのフレキシブルなアルゴリズムフレームワークを提案する。
この問題は楕円分布のペナルティ化された最大推定値として表される。
楕円モデルによく適合する正定行列と定ランクの正半定行列のジオメトリを利用する。
論文 参考訳(メタデータ) (2022-10-21T13:19:45Z) - Mean Nystr\"om Embeddings for Adaptive Compressive Learning [25.89586989444021]
本研究では,データ依存型Nystr"om近似に基づくスケッチ処理の考え方について検討する。
我々はk平均クラスタリングとガウスモデルについて、固定されたスケッチサイズでは、Nystr"omのスケッチはランダムな特徴で構築されたスケッチよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-21T09:05:58Z) - Newton-LESS: Sparsification without Trade-offs for the Sketched Newton
Update [88.73437209862891]
2階最適化において、潜在的なボトルネックは繰り返しごとに最適化関数のヘシアン行列を計算することである。
本稿では,ガウススケッチ行列を劇的に分散させることにより,スケッチの計算コストを大幅に削減できることを示す。
ニュートン=ルネッサはガウス埋め込みとほぼ同じ問題に依存しない局所収束率を享受していることを証明した。
論文 参考訳(メタデータ) (2021-07-15T17:33:05Z) - Solving weakly supervised regression problem using low-rank manifold
regularization [77.34726150561087]
我々は弱い教師付き回帰問題を解く。
weakly"の下では、いくつかのトレーニングポイントではラベルが知られ、未知のものもあれば、無作為なノイズの存在やリソースの欠如などの理由によって不確かであることが分かっています。
数値的な節ではモンテカルロモデルを用いて提案手法を人工と実のデータセットに適用した。
論文 参考訳(メタデータ) (2021-04-13T23:21:01Z) - Learning the Positions in CountSketch [51.15935547615698]
本稿では,まずランダムなスケッチ行列に乗じてデータを圧縮し,最適化問題を高速に解くスケッチアルゴリズムについて検討する。
本研究では,ゼロでないエントリの位置を最適化する学習アルゴリズムを提案する。
このアルゴリズムは, 従来よりも低階近似の精度を向上し, 初めて$k$-meansクラスタリングのような他の問題に適用できることを示す。
論文 参考訳(メタデータ) (2020-07-20T05:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。