論文の概要: Newton Method-based Subspace Support Vector Data Description
- arxiv url: http://arxiv.org/abs/2309.13960v1
- Date: Mon, 25 Sep 2023 08:49:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 16:32:30.194077
- Title: Newton Method-based Subspace Support Vector Data Description
- Title(参考訳): ニュートン法に基づく部分空間支援ベクトルデータ記述
- Authors: Fahad Sohrab, Firas Laakom, Moncef Gabbouj
- Abstract要約: サブスペース支援ベクトルデータ記述法(S-SVDD)の最適化のためのニュートン法の適用について述べる。
我々はNewtonの手法を利用してデータマッピングとデータ記述を強化し、サブスペース学習に基づく一クラス分類の最適化を改善する。
本稿では,勾配降下の限界と,一クラス分類タスクにおける部分空間学習におけるニュートン法の利用の利点について論じる。
- 参考スコア(独自算出の注目度): 16.772385337198834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present an adaptation of Newton's method for the
optimization of Subspace Support Vector Data Description (S-SVDD). The
objective of S-SVDD is to map the original data to a subspace optimized for
one-class classification, and the iterative optimization process of data
mapping and description in S-SVDD relies on gradient descent. However, gradient
descent only utilizes first-order information, which may lead to suboptimal
results. To address this limitation, we leverage Newton's method to enhance
data mapping and data description for an improved optimization of subspace
learning-based one-class classification. By incorporating this auxiliary
information, Newton's method offers a more efficient strategy for subspace
learning in one-class classification as compared to gradient-based
optimization. The paper discusses the limitations of gradient descent and the
advantages of using Newton's method in subspace learning for one-class
classification tasks. We provide both linear and nonlinear formulations of
Newton's method-based optimization for S-SVDD. In our experiments, we explored
both the minimization and maximization strategies of the objective. The results
demonstrate that the proposed optimization strategy outperforms the
gradient-based S-SVDD in most cases.
- Abstract(参考訳): 本稿では,S-SVDD(Subspace Support Vector Data Description)の最適化のためのNewton法の適用について述べる。
S-SVDDの目的は、元のデータを一級分類に最適化された部分空間にマッピングすることであり、S-SVDDにおけるデータマッピングと記述の反復的最適化プロセスは勾配勾配に依存する。
しかし、勾配降下は1次情報のみを利用するため、最適以下の結果につながる可能性がある。
この制限に対処するために,newton法を利用してデータマッピングとデータ記述を強化し,サブスペース学習に基づく1クラス分類の最適化を改善した。
この補助情報を組み込むことで、ニュートンの手法は勾配に基づく最適化と比較して、一クラス分類における部分空間学習をより効率的な戦略を提供する。
本稿では, 勾配降下の限界と, サブスペース学習におけるニュートン法の利用の利点について論じる。
S-SVDDに対するニュートン法に基づく最適化の線形および非線形な定式化を提供する。
実験では,目標の最小化戦略と最大化戦略の両方を検討した。
提案手法は,ほとんどの場合,勾配に基づくS-SVDDよりも優れていることを示す。
関連論文リスト
- Class-Imbalanced Semi-Supervised Learning for Large-Scale Point Cloud
Semantic Segmentation via Decoupling Optimization [64.36097398869774]
半教師付き学習(SSL)は大規模3Dシーン理解のための活発な研究課題である。
既存のSSLベースのメソッドは、クラス不均衡とポイントクラウドデータのロングテール分布による厳しいトレーニングバイアスに悩まされている。
本稿では,特徴表現学習と分類器を別の最適化方法で切り離してバイアス決定境界を効果的にシフトする,新しいデカップリング最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:16:40Z) - Class Gradient Projection For Continual Learning [99.105266615448]
破滅的な忘れは継続的学習(CL)における最も重要な課題の1つです。
タスクではなく個々のクラスから勾配部分空間を計算するクラスグラディエント・プロジェクション(CGP)を提案する。
論文 参考訳(メタデータ) (2023-11-25T02:45:56Z) - ELRA: Exponential learning rate adaption gradient descent optimization
method [83.88591755871734]
我々は, 高速(指数率), ab initio(超自由)勾配に基づく適応法を提案する。
本手法の主な考え方は,状況認識による$alphaの適応である。
これは任意の次元 n の問題に適用でき、線型にしかスケールできない。
論文 参考訳(メタデータ) (2023-09-12T14:36:13Z) - An alternative to SVM Method for Data Classification [0.0]
サポートベクトルマシン(SVM)は、データ分類のための一般的なカーネル手法である。
この方法は、時間処理、高次元ケースにおける最適化プロセスの失敗のリスクなど、いくつかの弱点に悩まされている。
本稿では, 上記の欠点を微妙に改善した, 類似性能の代替手法を提案する。
論文 参考訳(メタデータ) (2023-08-20T14:09:01Z) - Penalizing Gradient Norm for Efficiently Improving Generalization in
Deep Learning [13.937644559223548]
ディープニューラルネットワーク(DNN)をうまく一般化するためのトレーニング方法が、ディープラーニングの中心的な関心事である。
最適化時の損失関数の勾配ノルムをペナルティ化することにより,モデル一般化を効果的に向上する手法を提案する。
論文 参考訳(メタデータ) (2022-02-08T02:03:45Z) - Why Approximate Matrix Square Root Outperforms Accurate SVD in Global
Covariance Pooling? [59.820507600960745]
本稿では,前方通過のSVDと後方伝播のPad'e近似を用いて勾配を計算する新しいGCPメタ層を提案する。
提案するメタレイヤは,さまざまなCNNモデルに統合され,大規模および微細なデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-05-06T08:03:45Z) - Graph-Embedded Subspace Support Vector Data Description [98.78559179013295]
一クラス分類のための新しいサブスペース学習フレームワークを提案する。
提案されたフレームワークはグラフ埋め込みという形で問題を提示する。
ベースラインに対する改善されたパフォーマンスと、最近提案された1クラス分類のためのサブスペース学習方法を示す。
論文 参考訳(メタデータ) (2021-04-29T14:30:48Z) - Ellipsoidal Subspace Support Vector Data Description [98.67884574313292]
一クラス分類に最適化された低次元空間にデータを変換する新しい手法を提案する。
提案手法の線形および非線形の定式化について述べる。
提案手法は,最近提案されたサブスペースサポートベクトルデータ記述よりもはるかに高速に収束する。
論文 参考訳(メタデータ) (2020-03-20T21:31:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。