論文の概要: Improvement over Pinball Loss Support Vector Machine
- arxiv url: http://arxiv.org/abs/2106.01109v1
- Date: Wed, 2 Jun 2021 12:19:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-03 23:54:06.971438
- Title: Improvement over Pinball Loss Support Vector Machine
- Title(参考訳): ピンボール損失支援ベクトルマシンの改良
- Authors: Pritam Anand, Reshma Rastogi and Suresh Chandra
- Abstract要約: バイナリ分類タスクのための既存のPin-SVMモデルを改善する。
そこで,Pin-SVM モデルでは -1 leq tau 0$ に対して異なる最適化問題を解く必要があることを示す。
統一ピンSVM(Unified Pin-SVM)と呼ばれる統一モデルを提案する。
- 参考スコア(独自算出の注目度): 6.940576311187853
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, there have been several papers that discuss the extension of the
Pinball loss Support Vector Machine (Pin-SVM) model, originally proposed by
Huang et al.,[1][2]. Pin-SVM classifier deals with the pinball loss function,
which has been defined in terms of the parameter $\tau$. The parameter $\tau$
can take values in $[ -1,1]$. The existing Pin-SVM model requires to solve the
same optimization problem for all values of $\tau$ in $[ -1,1]$. In this paper,
we improve the existing Pin-SVM model for the binary classification task. At
first, we note that there is major difficulty in Pin-SVM model (Huang et al.
[1]) for $ -1 \leq \tau < 0$. Specifically, we show that the Pin-SVM model
requires the solution of different optimization problem for $ -1 \leq \tau <
0$. We further propose a unified model termed as Unified Pin-SVM which results
in a QPP valid for all $-1\leq \tau \leq 1$ and hence more convenient to use.
The proposed Unified Pin-SVM model can obtain a significant improvement in
accuracy over the existing Pin-SVM model which has also been empirically
justified by extensive numerical experiments with real-world datasets.
- Abstract(参考訳): 近年,Huangらによって提案されたPinball Los Support Vector Machine(Pin-SVM)モデルの拡張について議論する論文がいくつかある。
Pin-SVM分類器は、パラメータ$\tau$で定義されたPinball損失関数を扱う。
パラメータ $\tau$ は $[ -1,1]$ で値を取ることができる。
既存のPin-SVMモデルは、$\tau$ in $[ -1,1]$のすべての値に対して同じ最適化問題を解決する必要がある。
本稿では,バイナリ分類タスクのための既存のPin-SVMモデルを改善する。
最初は、pin-svmモデル(huangなど)には大きな困難があることに気付きました。
[1]) for $ -1 \leq \tau < 0$。
具体的には、pin-svmモデルは、異なる最適化問題の解が -1 \leq \tau < 0$ であることを示す。
さらに、統一pin-svmと呼ばれる統一モデルを提案し、すべての$-1\leq \tau \leq 1$に対してqppが有効となり、使用がより便利になる。
提案する統一pin-svmモデルは,実世界のデータセットを用いた広範囲な数値実験によって実証的に正当化されてきた既存のpin-svmモデルよりも精度が大幅に向上する。
関連論文リスト
- $p$SVM: Soft-margin SVMs with $p$-norm Hinge Loss [0.0]
ヒンジ損失に基づくサポートベクトルマシン(SVM)は、様々なバイナリ分類タスクに広く議論され、適用されてきた。
本稿では,$p$SVMの特性,性能,トレーニングアルゴリズムについて検討する。
論文 参考訳(メタデータ) (2024-08-19T11:30:00Z) - Projection by Convolution: Optimal Sample Complexity for Reinforcement Learning in Continuous-Space MDPs [56.237917407785545]
本稿では,円滑なベルマン作用素を持つ連続空間マルコフ決定過程(MDP)の一般クラスにおいて,$varepsilon$-optimal Policyを学習する問題を考察する。
我々のソリューションの鍵となるのは、調和解析のアイデアに基づく新しい射影技術である。
我々の結果は、連続空間 MDP における2つの人気と矛盾する視点のギャップを埋めるものである。
論文 参考訳(メタデータ) (2024-05-10T09:58:47Z) - A Novel Loss Function-based Support Vector Machine for Binary Classification [3.773980481058198]
サポートベクトルマシン分類器($ell_s$-SVM)を構築するための新しいスライド損失関数(ell_s$)を提案する。
近似定常点の概念を導入し、リプシッツ連続性の性質を利用することにより、$ell_s$-SVM に対する一階最適条件を導出する。
我々は, $ell_s$-SVM を効率的に処理するために, 演算セットと乗算器の高速交互方向法を考案した。
論文 参考訳(メタデータ) (2024-03-25T11:42:01Z) - Transformers as Support Vector Machines [54.642793677472724]
自己アテンションの最適化幾何と厳密なSVM問題との間には,形式的等価性を確立する。
勾配降下に最適化された1層変圧器の暗黙バイアスを特徴付ける。
これらの発見は、最適なトークンを分離し選択するSVMの階層としてのトランスフォーマーの解釈を刺激していると信じている。
論文 参考訳(メタデータ) (2023-08-31T17:57:50Z) - High-Dimensional Penalized Bernstein Support Vector Machines [0.0]
SVMヒンジ損失関数の非微分性は、高次元設定において計算困難を引き起こす可能性がある。
本稿では,Pentalized BernSVMの解を求めるための2つの効率的なアルゴリズムを提案する。
我々の境界は高い確率を持ち、位数 $sqrtslog(p)/n$ を達成する。
論文 参考訳(メタデータ) (2023-03-16T03:48:29Z) - Horizon-Free and Variance-Dependent Reinforcement Learning for Latent
Markov Decision Processes [62.90204655228324]
我々は,後期マルコフ決定過程(LMDP)における強化学習(RL)の文脈を考慮した後悔の最小化について検討した。
我々は,モデル最適化と値最適化の両手法でインスタンス化できる,新しいモデルベースアルゴリズムフレームワークを設計する。
論文 参考訳(メタデータ) (2022-10-20T21:32:01Z) - GBSVM: Granular-ball Support Vector Machine [46.60182022640765]
GBSVMは、単一データポイントではなく、グラニュラーボールの粗粒度を入力として使用する分類器を構築するための重要な試みである。
本稿では,既存のGBSVMの原モデルの誤りを修正し,その二重モデルを導出する。
UCIベンチマークデータセットの実験結果は、GBSVMが堅牢性と効率性に優れていることを示している。
論文 参考訳(メタデータ) (2022-10-06T09:11:44Z) - Nonlinear Kernel Support Vector Machine with 0-1 Soft Margin Loss [13.803988813225025]
本稿では,0-1ソフトマージン損失を持つサポートベクトルマシンの非線形モデルである$L_0/1$-KSVMを提案する。
1$L_0/1$-KSVMは、線形ピアに比べて非常に少ないSVを持ち、正確な予測精度を持つ。
論文 参考訳(メタデータ) (2022-03-01T12:53:52Z) - Compressing 1D Time-Channel Separable Convolutions using Sparse Random
Ternary Matrices [65.4388266814055]
1次元時間チャネル分離可能な畳み込みの1x1-畳み込みを、定数でスパースな乱数三元行列で-1,0,+1$の重みで置き換える。
Google Speech Commands v1のコマンド認識のために、最新の精度を同じネットワークサイズで97.21%$から97.41%$に改善します。
librispeech上での音声認識では、トレーニングすべき重みの数は半分になり、浮動小数点ベースラインの単語誤り率の約1%を犠牲にします。
論文 参考訳(メタデータ) (2021-03-31T15:09:20Z) - Improving Robustness and Generality of NLP Models Using Disentangled
Representations [62.08794500431367]
スーパービジョンニューラルネットワークはまず入力$x$を単一の表現$z$にマップし、次に出力ラベル$y$にマッピングする。
本研究では,非交叉表現学習の観点から,NLPモデルの堅牢性と汎用性を改善する手法を提案する。
提案した基準でトレーニングしたモデルは、広範囲の教師付き学習タスクにおいて、より堅牢性とドメイン適応性を向上することを示す。
論文 参考訳(メタデータ) (2020-09-21T02:48:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。