論文の概要: Asymmetric compressive learning guarantees with applications to
quantized sketches
- arxiv url: http://arxiv.org/abs/2104.10061v1
- Date: Tue, 20 Apr 2021 15:37:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-21 14:36:03.776932
- Title: Asymmetric compressive learning guarantees with applications to
quantized sketches
- Title(参考訳): 非対称圧縮学習と量子化スケッチへの応用
- Authors: Vincent Schellekens and Laurent Jacques
- Abstract要約: 大規模データセットから音声イベント分類を学習するためのフレームワークを提案する。
私たちは、このマップが各フェーズごとに異なることが許されるリラクゼーションを研究します。
次に、このフレームワークを量子化されたスケッチの設定にインスタンス化し、LPDが実際にバイナリスケッチのコントリビューションを保持することを証明します。
- 参考スコア(独自算出の注目度): 15.814495790111323
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The compressive learning framework reduces the computational cost of training
on large-scale datasets. In a sketching phase, the data is first compressed to
a lightweight sketch vector, obtained by mapping the data samples through a
well-chosen feature map, and averaging those contributions. In a learning
phase, the desired model parameters are then extracted from this sketch by
solving an optimization problem, which also involves a feature map. When the
feature map is identical during the sketching and learning phases, formal
statistical guarantees (excess risk bounds) have been proven.
However, the desirable properties of the feature map are different during
sketching and learning (e.g. quantized outputs, and differentiability,
respectively). We thus study the relaxation where this map is allowed to be
different for each phase. First, we prove that the existing guarantees carry
over to this asymmetric scheme, up to a controlled error term, provided some
Limited Projected Distortion (LPD) property holds. We then instantiate this
framework to the setting of quantized sketches, by proving that the LPD indeed
holds for binary sketch contributions. Finally, we further validate the
approach with numerical simulations, including a large-scale application in
audio event classification.
- Abstract(参考訳): 圧縮学習フレームワークは、大規模データセットでのトレーニングの計算コストを削減する。
スケッチフェーズでは、データをまず軽量なスケッチベクトルに圧縮し、データサンプルを well-chosen 特徴マップにマッピングし、それらのコントリビューションを平均化する。
学習段階では、特徴マップも含む最適化問題を解くことにより、所望のモデルパラメータをこのスケッチから抽出する。
スケッチと学習段階で特徴写像が同一である場合、正式な統計的保証(過剰リスク境界)が証明されている。
しかし、特徴マップの望ましい性質はスケッチや学習(例)において異なる。
量子化出力、および微分可能性)。
したがって、この写像が各位相で異なることが許される緩和について研究する。
まず、既存の保証が、制限付き投影歪(LPD)特性が保持されている場合、制御された誤差項まで、この非対称なスキームに受け継がれることを証明する。
次に、このフレームワークを量子化されたスケッチの設定にインスタンス化し、LDDが実際にバイナリスケッチのコントリビューションを保っていることを証明します。
最後に,音声イベント分類における大規模応用を含む数値シミュレーションによるアプローチをさらに検証する。
関連論文リスト
- Conditional simulation via entropic optimal transport: Toward non-parametric estimation of conditional Brenier maps [13.355769319031184]
条件付きシミュレーションは統計モデリングの基本的な課題である。
1つの有望なアプローチは条件付きブレニエ写像を構築することである。
等方的最適輸送の計算スケーラビリティに基づく条件付きブレニエ写像の非パラメトリック推定器を提案する。
論文 参考訳(メタデータ) (2024-11-11T17:32:47Z) - Stochastic Gradient Descent for Nonparametric Regression [11.24895028006405]
本稿では,非パラメトリック加法モデルをトレーニングするための反復アルゴリズムを提案する。
結果の不等式は、モデルの誤特定を可能にする託宣を満足していることが示される。
論文 参考訳(メタデータ) (2024-01-01T08:03:52Z) - Learning Implicit Feature Alignment Function for Semantic Segmentation [51.36809814890326]
Implicit Feature Alignment Function (IFA)は、暗黙の神経表現の急速に拡大するトピックにインスパイアされている。
IFAは機能マップを異なるレベルで暗黙的に整列し、任意の解像度でセグメンテーションマップを生成することができることを示す。
提案手法は,様々なアーキテクチャの改善と組み合わせて,一般的なベンチマークにおける最先端の精度のトレードオフを実現する。
論文 参考訳(メタデータ) (2022-06-17T09:40:14Z) - Neural Jacobian Fields: Learning Intrinsic Mappings of Arbitrary Meshes [38.157373733083894]
本稿では,ニューラルネットワークによる任意のメッシュの断片的線形マッピングを正確に予測するフレームワークを提案する。
このフレームワークは、グローバルな形状記述子に条件付けされた単一点の行列の予測に神経的な側面を還元することに基づいている。
個々のメッシュの固有の勾配領域で操作することで、フレームワークは高度に正確なマッピングを予測できる。
論文 参考訳(メタデータ) (2022-05-05T19:51:13Z) - Distributed Sketching for Randomized Optimization: Exact
Characterization, Concentration and Lower Bounds [54.51566432934556]
我々はヘシアンの形成が困難である問題に対する分散最適化法を検討する。
ランダム化されたスケッチを利用して、問題の次元を減らし、プライバシを保ち、非同期分散システムにおけるストラグラーレジリエンスを改善します。
論文 参考訳(メタデータ) (2022-03-18T05:49:13Z) - Smoothed Embeddings for Certified Few-Shot Learning [63.68667303948808]
我々はランダムな平滑化を数ショットの学習モデルに拡張し、入力を正規化された埋め込みにマッピングする。
この結果は、異なるデータセットの実験によって確認される。
論文 参考訳(メタデータ) (2022-02-02T18:19:04Z) - Multiway Non-rigid Point Cloud Registration via Learned Functional Map
Synchronization [105.14877281665011]
我々は、点雲上に定義された学習関数に関する地図を同期させることにより、複数の非剛体形状を登録する新しい方法であるSyNoRiMを提案する。
提案手法は,登録精度において最先端の性能を達成できることを実証する。
論文 参考訳(メタデータ) (2021-11-25T02:37:59Z) - Mean Nystr\"om Embeddings for Adaptive Compressive Learning [25.89586989444021]
本研究では,データ依存型Nystr"om近似に基づくスケッチ処理の考え方について検討する。
我々はk平均クラスタリングとガウスモデルについて、固定されたスケッチサイズでは、Nystr"omのスケッチはランダムな特徴で構築されたスケッチよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-21T09:05:58Z) - Learning Optical Flow from a Few Matches [67.83633948984954]
密な相関体積表現は冗長であり、その中の要素のほんの一部で正確なフロー推定が達成できることを示した。
実験により,高い精度を維持しつつ計算コストとメモリ使用量を大幅に削減できることを示した。
論文 参考訳(メタデータ) (2021-04-05T21:44:00Z) - Accumulations of Projections--A Unified Framework for Random Sketches in
Kernel Ridge Regression [12.258887270632869]
n-by-n 経験的カーネル行列のスケッチを構築することは、多くのカーネルメソッドの計算を加速するための一般的なアプローチである。
カーネルリッジ回帰におけるスケッチ手法を構築するための統一フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-06T05:02:17Z) - Model identification and local linear convergence of coordinate descent [74.87531444344381]
循環座標降下は、幅広い種類の関数に対して有限時間でモデル同定を達成することを示す。
また、座標降下に対する局所収束速度を明示的に証明する。
論文 参考訳(メタデータ) (2020-10-22T16:03:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。