論文の概要: Coresets for Near-Convex Functions
- arxiv url: http://arxiv.org/abs/2006.05482v2
- Date: Thu, 18 Jun 2020 22:07:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 14:09:07.611674
- Title: Coresets for Near-Convex Functions
- Title(参考訳): 近接凸関数のコアセット
- Authors: Murad Tukan and Alaa Maalouf and Dan Feldman
- Abstract要約: Coresetは通常、$mathbbRd$の$n$入力ポイントの小さな重み付きサブセットで、与えられたクエリの集合に対する損失関数を確実に近似する。
広い損失関数群に対する感性(およびコアセット)を計算するための一般的なフレームワークを提案する。
例えば、SVM、Logistic M-estimator、$ell_z$-regressionなどがある。
- 参考スコア(独自算出の注目度): 25.922075279588757
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Coreset is usually a small weighted subset of $n$ input points in
$\mathbb{R}^d$, that provably approximates their loss function for a given set
of queries (models, classifiers, etc.). Coresets become increasingly common in
machine learning since existing heuristics or inefficient algorithms may be
improved by running them possibly many times on the small coreset that can be
maintained for streaming distributed data. Coresets can be obtained by
sensitivity (importance) sampling, where its size is proportional to the total
sum of sensitivities. Unfortunately, computing the sensitivity of each point is
problem dependent and may be harder to compute than the original optimization
problem at hand.
We suggest a generic framework for computing sensitivities (and thus
coresets) for wide family of loss functions which we call near-convex
functions. This is by suggesting the $f$-SVD factorization that generalizes the
SVD factorization of matrices to functions. Example applications include
coresets that are either new or significantly improves previous results, such
as SVM, Logistic regression, M-estimators, and $\ell_z$-regression.
Experimental results and open source are also provided.
- Abstract(参考訳): コアセットは通常、与えられたクエリの集合(モデル、分類器など)に対する損失関数を確実に近似する$\mathbb{R}^d$の$n$入力点の小さな重み付き部分集合である。
既存のヒューリスティックや非効率的なアルゴリズムは、分散データをストリーミングするためにメンテナンス可能な小さなコアセット上で何度も実行することによって改善される可能性があるため、機械学習ではコアセットがますます一般的になる。
コアセットは感度(重要度)サンプリングによって得ることができ、そのサイズは感度の総和に比例する。
残念ながら、各点の感度の計算は問題依存であり、現在の最適化問題よりも計算が難しい可能性がある。
近凸関数と呼ぶ広い損失関数群に対する感性(およびコアセット)を計算するための一般的なフレームワークを提案する。
これは行列の SVD 因子化を関数に一般化する$f$-SVD 因子化を提案することである。
例えば、SVM、ロジスティック回帰、M推定器、$\ell_z$-regressionなど、以前の結果を新しくあるいは著しく改善したコアセットがある。
実験結果とオープンソースも提供される。
関連論文リスト
- No Dimensional Sampling Coresets for Classification [8.234735564035567]
我々は、感度サンプリングフレームワークを用いて、分類問題に対するコアセットについて知られていることを洗練し、一般化する。
我々の分析は、最初の非次元コアセットを提供するので、サイズは次元に依存しない。
私たちが開発している重要なツールは、主要な感度サンプリングアプローチのRadamacher複雑性バージョンです。
論文 参考訳(メタデータ) (2024-02-07T21:53:01Z) - AutoCoreset: An Automatic Practical Coreset Construction Framework [65.37876706107764]
コアセットは入力セットの小さな重み付き部分集合であり、損失関数によく似ている。
本稿では,ユーザからの入力データと所望のコスト関数のみを必要とするコアセット構築のための自動フレームワークを提案する。
この集合は有限であるが、コア集合は極めて一般であることを示す。
論文 参考訳(メタデータ) (2023-05-19T19:59:52Z) - Optimal approximation using complex-valued neural networks [0.0]
複雑評価ニューラルネットワーク(CVNN)は最近、有望な経験的成功を示している。
CVNNの表現性を近似特性を用いて解析する。
論文 参考訳(メタデータ) (2023-03-29T15:56:43Z) - Provable Data Subset Selection For Efficient Neural Network Training [73.34254513162898]
本稿では,任意の放射基底関数ネットワーク上での入力データの損失を近似する,emphRBFNNのコアセットを構成するアルゴリズムについて紹介する。
次に、一般的なネットワークアーキテクチャやデータセット上で、関数近似とデータセットサブセットの選択に関する経験的評価を行う。
論文 参考訳(メタデータ) (2023-03-09T10:08:34Z) - Nearly Minimax Optimal Reinforcement Learning for Linear Markov Decision
Processes [80.89852729380425]
そこで本研究では,最小限の最小残差である$tilde O(dsqrtH3K)$を計算効率よく実現したアルゴリズムを提案する。
我々の研究は線形 MDP を用いた最適 RL に対する完全な答えを提供する。
論文 参考訳(メタデータ) (2022-12-12T18:58:59Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - Multi-block-Single-probe Variance Reduced Estimator for Coupled
Compositional Optimization [49.58290066287418]
構成問題の複雑さを軽減するために,MSVR (Multi-block-probe Variance Reduced) という新しい手法を提案する。
本研究の結果は, 試料の複雑さの順序や強靭性への依存など, 様々な面で先行して改善された。
論文 参考訳(メタデータ) (2022-07-18T12:03:26Z) - Deletion and Insertion Tests in Regression Models [1.2891210250935148]
説明可能なAI(XAI)の基本課題は、ブラックボックス関数$f$による予測の背後にある最も重要な特徴を特定することである。
Petsiuk et al. Kernel の挿入と削除テストは、分類においてピクセルを最も重要視するアルゴリズムの品質を判断するために用いられる。
論文 参考訳(メタデータ) (2022-05-25T00:55:47Z) - Learning to extrapolate using continued fractions: Predicting the
critical temperature of superconductor materials [5.905364646955811]
人工知能(AI)と機械学習(ML)の分野では、未知のターゲット関数 $y=f(mathbfx)$ の近似が共通の目的である。
トレーニングセットとして$S$を参照し、新しいインスタンス$mathbfx$に対して、このターゲット関数を効果的に近似できる低複雑さの数学的モデルを特定することを目的としている。
論文 参考訳(メタデータ) (2020-11-27T04:57:40Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。