論文の概要: $\ell_p$ Slack Norm Support Vector Data Description
- arxiv url: http://arxiv.org/abs/2203.08932v1
- Date: Wed, 16 Mar 2022 20:38:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-19 07:15:13.863545
- Title: $\ell_p$ Slack Norm Support Vector Data Description
- Title(参考訳): $\ell_p$ Slack Normがベクトルデータ記述をサポート
- Authors: Shervin R. Arashloo
- Abstract要約: このモデリング形式を一般の$ell_p$-norm(pgeq1$)スラックペナルティ関数に一般化する。
$ell_p$ slack ノルムにより、提案手法はスラックスに関して非線形コスト関数を定式化することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The support vector data description (SVDD) approach serves as a de facto
standard for one-class classification where the learning task entails inferring
the smallest hyper-sphere to enclose target objects while linearly penalising
any errors/slacks via an $\ell_1$-norm penalty term. In this study, we
generalise this modelling formalism to a general $\ell_p$-norm ($p\geq1$) slack
penalty function. By virtue of an $\ell_p$ slack norm, the proposed approach
enables formulating a non-linear cost function with respect to slacks. From a
dual problem perspective, the proposed method introduces a sparsity-inducing
dual norm into the objective function, and thus, possesses a higher capacity to
tune into the inherent sparsity of the problem for enhanced descriptive
capability. A theoretical analysis based on Rademacher complexities
characterises the generalisation performance of the proposed approach in terms
of parameter $p$ while the experimental results on several datasets confirm the
merits of the proposed method compared to other alternatives.
- Abstract(参考訳): サポートベクトルデータ記述(SVDD)アプローチは、学習タスクがターゲットオブジェクトを囲むために最小の超球面を推論し、$\ell_1$-normのペナルティ項でエラーやスラックを線形に解析する1クラス分類のデファクトスタンダードとして機能する。
本研究では,このモデリング形式を,slack ペナルティ関数である $\ell_p$-norm (p\geq1$) に一般化する。
$\ell_p$ slack ノルムにより、提案手法はスラックスに関して非線形コスト関数を定式化することができる。
双対問題の観点からは、提案手法は目的関数にスパーシティ誘導双対ノルムを導入することにより、記述能力の向上のために問題の本質的なスパーシティを調整できる高い能力を有する。
Rademacher複雑度に基づく理論的解析は,パラメータ$p$で提案手法の一般化性能を特徴づける一方,いくつかのデータセットの実験結果は,提案手法の利点を他の方法と比較して確認する。
関連論文リスト
- Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Online non-parametric likelihood-ratio estimation by Pearson-divergence
functional minimization [55.98760097296213]
iid 観測のペア $(x_t sim p, x'_t sim q)$ が時間の経過とともに観測されるような,オンラインな非パラメトリック LRE (OLRE) のための新しいフレームワークを提案する。
本稿では,OLRE法の性能に関する理論的保証と,合成実験における実証的検証について述べる。
論文 参考訳(メタデータ) (2023-11-03T13:20:11Z) - Pseudonorm Approachability and Applications to Regret Minimization [73.54127663296906]
我々は、高次元 $ell_infty$-approachability 問題を、低次元の擬ノルムアプローチ可能性問題に変換する。
我々は、$ell$や他のノルムに対するアプローチ可能性に関する以前の研究に類似した疑似ノルムアプローチ可能性のアルゴリズム理論を開発する。
論文 参考訳(メタデータ) (2023-02-03T03:19:14Z) - Improved Regret for Efficient Online Reinforcement Learning with Linear
Function Approximation [69.0695698566235]
線形関数近似による強化学習と,コスト関数の逆変化について検討した。
本稿では,未知のダイナミクスと帯域幅フィードバックの一般設定に挑戦する,計算効率のよいポリシ最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-30T17:26:39Z) - spred: Solving $L_1$ Penalty with SGD [6.2255027793924285]
単純な再パラメータ化を用いて、$L_$で微分可能な目的を最小化することを提案する。
我々は、再パラメータ化のトリックが「完全に良性である」ことを証明する。
論文 参考訳(メタデータ) (2022-10-03T20:07:51Z) - Robust Linear Predictions: Analyses of Uniform Concentration, Fast Rates
and Model Misspecification [16.0817847880416]
ヒルベルト空間上の様々な線形予測問題を含む統一的なフレームワークを提供する。
誤特定レベル $epsilon$ に対して、これらの推定器は、文献で最もよく知られたレートと一致する、$O(maxleft|mathcalO|1/2n-1/2, |mathcalI|1/2n-1 right+epsilon)$ の誤差率を達成する。
論文 参考訳(メタデータ) (2022-01-06T08:51:08Z) - Learning Sparse Graph with Minimax Concave Penalty under Gaussian Markov
Random Fields [51.07460861448716]
本稿では,データから学ぶための凸解析フレームワークを提案する。
三角凸分解はその上部に対応する変換によって保証されることを示す。
論文 参考訳(メタデータ) (2021-09-17T17:46:12Z) - On the Treatment of Optimization Problems with L1 Penalty Terms via
Multiobjective Continuation [0.0]
本稿では,線形・非線形最適化におけるスパース性の影響を詳細に把握するアルゴリズムを提案する。
本手法は非線形の場合に対する線形回帰問題に対するよく知られたホモトピー法の一般化と見なすことができる。
論文 参考訳(メタデータ) (2020-12-14T13:00:50Z) - On the Adversarial Robustness of LASSO Based Feature Selection [72.54211869067979]
検討されたモデルでは、悪意のある敵がデータセット全体を観察し、レスポンス値やフィーチャーマトリックスを慎重に修正する。
両レベルの最適化問題として、敵の修正戦略を定式化する。
合成および実データを用いた数値的な例は,本手法が効率的かつ効果的であることを示している。
論文 参考訳(メタデータ) (2020-10-20T05:51:26Z) - Estimating Principal Components under Adversarial Perturbations [25.778123431786653]
本研究では,高次元統計的推定問題に対するロバストネスの自然なモデルについて検討する。
我々のモデルは、低精度機械学習や対人訓練といった新しいパラダイムによって動機付けられている。
論文 参考訳(メタデータ) (2020-05-31T20:27:19Z) - A Precise High-Dimensional Asymptotic Theory for Boosting and
Minimum-$\ell_1$-Norm Interpolated Classifiers [3.167685495996986]
本稿では,分離可能なデータの強化に関する高精度な高次元理論を確立する。
統計モデルのクラスでは、ブースティングの普遍性誤差を正確に解析する。
また, 推力試験誤差と最適ベイズ誤差の関係を明示的に説明する。
論文 参考訳(メタデータ) (2020-02-05T00:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。