論文の概要: Generalized Reference Kernel With Negative Samples For Support Vector One-class Classification
- arxiv url: http://arxiv.org/abs/2506.14895v1
- Date: Tue, 17 Jun 2025 18:07:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 19:35:51.444373
- Title: Generalized Reference Kernel With Negative Samples For Support Vector One-class Classification
- Title(参考訳): ベクトルワンクラス分類のための負のサンプルを用いた一般化参照カーネル
- Authors: Jenni Raitoharju,
- Abstract要約: 本稿では、いくつかの負のサンプルが利用可能な小規模の1クラス分類に焦点を当てる。
1クラスサポートベクトルマシン(OC-SVM)のための負サンプル付き一般化参照カーネル(GRKneg)を提案する。
- 参考スコア(独自算出の注目度): 6.116088814650622
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper focuses on small-scale one-class classification with some negative samples available. We propose Generalized Reference Kernel with Negative Samples (GRKneg) for One-class Support Vector Machine (OC-SVM). We study different ways to select/generate the reference vectors and recommend an approach for the problem at hand. It is worth noting that the proposed method does not use any labels in the model optimization but uses the original OC-SVM implementation. Only the kernel used in the process is improved using the negative data. We compare our method with the standard OC-SVM and with the binary Support Vector Machine (SVM) using different amounts of negative samples. Our approach consistently outperforms the standard OC-SVM using Radial Basis Function kernel. When there are plenty of negative samples, the binary SVM outperforms the one-class approaches as expected, but we show that for the lowest numbers of negative samples the proposed approach clearly outperforms the binary SVM.
- Abstract(参考訳): 本稿では、いくつかの負のサンプルが利用可能な小規模の1クラス分類に焦点を当てる。
本稿では,一クラスサポートベクトルマシン(OC-SVM)のための負サンプル付き一般化参照カーネル(GRKneg)を提案する。
本稿では,参照ベクトルの選択・生成方法について検討し,現状の問題に対するアプローチを推奨する。
提案手法はモデル最適化においてラベルを一切使用せず,オリジナルのOC-SVM実装を使用している点に注意が必要である。
プロセスで使用されるカーネルのみが、負のデータを使用して改善される。
提案手法を標準のOC-SVMとバイナリサポートベクトルマシン(SVM)と比較する。
我々のアプローチは、Radar Basis Functionカーネルを使用して標準のOC-SVMを一貫して上回ります。
負のサンプルが多数存在する場合、バイナリSVMは期待通り一級のアプローチより優れているが、最小数の負のサンプルでは、提案手法がバイナリSVMよりも明らかに優れていることを示す。
関連論文リスト
- MOKD: Cross-domain Finetuning for Few-shot Classification via Maximizing Optimized Kernel Dependence [97.93517982908007]
NCCは、ドメイン間数ショットの分類において、少数ショットの分類が可能なメートル法空間を構築するために表現を学ぶことを目的としている。
本稿では,異なるクラスから得られた2つの標本の NCC 学習表現に高い類似性があることを見出した。
ラベル付きデータによって示されるクラスタ構造にマッチするクラス固有の表現の集合を学習するために、最適化されたカーネル依存(MOKD)を最大化する二段階最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T05:59:52Z) - Learning The Likelihood Test With One-Class Classifiers for Physical Layer Authentication [6.853388306874705]
物理層認証(PLA)機構では、受信したメッセージが正規のユーザまたは侵入者によって送信されたかどうかを検証者が判定する。
ニューラルネットワーク(NN)と1クラスの最小二乗サポートマシン(OSVM)モデルでそれをどのように行うかを示す。
我々は、人工データセットを必要とせずに、可能性テスト(LT)として動作するPLA検証器を訓練する修正勾配降下法(SGD)アルゴリズムを導出する。
論文 参考訳(メタデータ) (2022-10-22T16:36:41Z) - GBSVM: Granular-ball Support Vector Machine [46.60182022640765]
GBSVMは、単一データポイントではなく、グラニュラーボールの粗粒度を入力として使用する分類器を構築するための重要な試みである。
本稿では,既存のGBSVMの原モデルの誤りを修正し,その二重モデルを導出する。
UCIベンチマークデータセットの実験結果は、GBSVMが堅牢性と効率性に優れていることを示している。
論文 参考訳(メタデータ) (2022-10-06T09:11:44Z) - Handling Imbalanced Classification Problems With Support Vector Machines
via Evolutionary Bilevel Optimization [73.17488635491262]
サポートベクトルマシン(SVM)は、バイナリ分類問題に対処する一般的な学習アルゴリズムである。
この記事では、EBCS-SVMについて紹介する。
論文 参考訳(メタデータ) (2022-04-21T16:08:44Z) - Max-Margin Contrastive Learning [120.32963353348674]
教師なし表現学習のためのMMCL(max-margin contrastive learning)を提案する。
提案手法は2次最適化問題を用いて得られたスパース支持ベクトルとして負を選択する。
我々は、標準ビジョンベンチマークデータセットに対するアプローチを検証し、教師なし表現学習におけるより良い性能を示す。
論文 参考訳(メタデータ) (2021-12-21T18:56:54Z) - Doubly Contrastive Deep Clustering [135.7001508427597]
本稿では、サンプルビューとクラスビューの両方でコントラスト損失を構築する新しい二重コントラストディープクラスタリング(DCDC)フレームワークを紹介します。
具体的には、サンプルビューに対して、元のサンプルとその拡張バージョンのクラス分布を正のサンプルペアとして設定する。
クラスビューでは、クラスのサンプル分布から正のペアと負のペアを構築します。
このように、2つのコントラスト損失は、サンプルとクラスレベルでのミニバッチサンプルのクラスタリング結果をうまく制限します。
論文 参考訳(メタデータ) (2021-03-09T15:15:32Z) - Estimating Average Treatment Effects with Support Vector Machines [77.34726150561087]
サポートベクターマシン(SVM)は、機械学習文献で最も人気のある分類アルゴリズムの1つです。
我々はsvmをカーネルベースの重み付け手順として適用し,治療群と制御群の最大平均差を最小化する。
このトレードオフから生じる因果効果推定のバイアスを特徴づけ、提案されたSVM手順と既存のカーネルバランシング手法を結びつけます。
論文 参考訳(メタデータ) (2021-02-23T20:22:56Z) - A fast learning algorithm for One-Class Slab Support Vector Machines [1.1613446814180841]
本稿では,SMO (Sequential Minimal Optimization) を用いた一級スラブSVMの高速トレーニング手法を提案する。
その結果、このトレーニング手法は、他の準計画法(QP)の解法よりも、大規模なトレーニングデータに対してより優れたスケールが可能であることが示唆された。
論文 参考訳(メタデータ) (2020-11-06T09:16:39Z) - Radial basis function kernel optimization for Support Vector Machine
classifiers [4.888981184420116]
OKSVMはRBFカーネルハイパーパラメータを自動的に学習し、SVM重みを同時に調整するアルゴリズムである。
合成データおよび実データに基づく分類において,従来のSVMに対するアプローチの性能を解析する。
論文 参考訳(メタデータ) (2020-07-16T10:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。