論文の概要: LBL: Logarithmic Barrier Loss Function for One-class Classification
- arxiv url: http://arxiv.org/abs/2307.10753v1
- Date: Thu, 20 Jul 2023 10:29:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-21 13:41:06.006674
- Title: LBL: Logarithmic Barrier Loss Function for One-class Classification
- Title(参考訳): LBL:一級分類のための対数障壁損失関数
- Authors: Tianlei Wang, Dekang Liu, Wandong Zhang, Jiuwen Cao
- Abstract要約: 1クラス分類(OCC)は、対象のクラスデータのみで分類器を訓練することを目的としている。
OCCには多くの進歩があったが、深層学習に有効なOCC損失機能がない。
本稿ではLBLSigという新しい対数障壁関数に基づくOCC損失を提案する。
- 参考スコア(独自算出の注目度): 15.08881623373229
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One-class classification (OCC) aims to train a classifier only with the
target class data and attracts great attention for its strong applicability in
real-world application. Despite a lot of advances have been made in OCC, it
still lacks the effective OCC loss functions for deep learning. In this paper,
a novel logarithmic barrier function based OCC loss (LBL) that assigns large
gradients to the margin samples and thus derives more compact hypersphere, is
first proposed by approximating the OCC objective smoothly. But the
optimization of LBL may be instability especially when samples lie on the
boundary leading to the infinity loss. To address this issue, then, a
unilateral relaxation Sigmoid function is introduced into LBL and a novel OCC
loss named LBLSig is proposed. The LBLSig can be seen as the fusion of the mean
square error (MSE) and the cross entropy (CE) and the optimization of LBLSig is
smoother owing to the unilateral relaxation Sigmoid function. The effectiveness
of the proposed LBL and LBLSig is experimentally demonstrated in comparisons
with several state-of-the-art OCC algorithms on different network structures.
The source code can be found at https://github.com/ML-HDU/LBL_LBLSig.
- Abstract(参考訳): one-class classification (occ) は、ターゲットのクラスデータのみで分類器を訓練することを目的としており、現実世界のアプリケーションに適用性が強いことで大きな注目を集めている。
OCCには多くの進歩があったが、深層学習に有効なOCC損失機能がない。
本稿では,occ目標をスムースに近似することにより,マージンサンプルに大きな勾配を割り当て,よりコンパクトな超球面を導出する新しい対数バリア関数ベースocc損失(lbl)を提案する。
しかし、特にサンプルが無限の損失につながる境界上にある場合、lblの最適化は不安定である可能性がある。
この問題に対処するため、一方的な緩和Sigmoid関数をLBLに導入し、新しいOCC損失LBLSigを提案する。
LBLSigは平均二乗誤差(MSE)とクロスエントロピー(CE)の融合と見なすことができ、一方の緩和シグモイド関数によりLBLSigの最適化はより滑らかである。
提案するlblとlblsigの有効性を,ネットワーク構造の違いに対する最先端occアルゴリズムとの比較により実験的に検証した。
ソースコードはhttps://github.com/ML-HDU/LBL_LBLSigにある。
関連論文リスト
- Bayesian Optimisation with Unknown Hyperparameters: Regret Bounds Logarithmically Closer to Optimal [18.93478528448966]
本稿では,Longth Scale Balancing (LB)について紹介する。
LBは、長いスケールを維持しながら、長いスケールの候補値を追加し、探索とエクスプロイトのバランスをとる。
LB はオラクルの後悔からわずか$log g(T) 離れている。
論文 参考訳(メタデータ) (2024-10-14T11:17:00Z) - RecDCL: Dual Contrastive Learning for Recommendation [65.6236784430981]
本稿では、RecDCLという2つのコントラスト学習推薦フレームワークを提案する。
RecDCLでは、FCLの目的は、ユーザとイテムの正のペアに対する冗長なソリューションを排除することである。
BCLの目的は、表現の堅牢性を高めるために出力ベクトルにコントラスト埋め込みを生成するために利用される。
論文 参考訳(メタデータ) (2024-01-28T11:51:09Z) - CRaSh: Clustering, Removing, and Sharing Enhance Fine-tuning without
Full Large Language Model [22.870512676002463]
本稿では,集中型LCMと下流エミュレータ間でトランスフォーマブロックを転送する代表的手法であるOffsite-Tuning(OFT)に焦点を当てる。
これらの観測にインスパイアされたCRaShは、LCMから改善エミュレータを導出するトレーニングフリー戦略であるClustering、Removing、Sharingを含む。
以上の結果から,CRaShとOFTの有効性が明らかとなった。
論文 参考訳(メタデータ) (2023-10-24T03:08:58Z) - Intuitionistic Fuzzy Broad Learning System: Enhancing Robustness Against Noise and Outliers [0.0]
本稿では,ファジィ広範学習システム (F-BLS) と直観的ファジィ広範学習システム (IF-BLS) モデルを提案する。
アルツハイマー病(AD)の診断のためのF-BLSモデルとIF-BLSモデルを実装した。
論文 参考訳(メタデータ) (2023-07-15T21:40:36Z) - Averaged Method of Multipliers for Bi-Level Optimization without
Lower-Level Strong Convexity [43.092883358935545]
単ループ二値乗算器 (sl-BAMM) を両レベル最適化 (BLO) のために提案する。
我々は, sl-BAMMのKKT定常点への非漸近収束解析を行い, 解析の利点は強い勾配有界性仮定の欠如にある。
論文 参考訳(メタデータ) (2023-02-07T11:29:05Z) - Discrete Langevin Sampler via Wasserstein Gradient Flow [102.94731267405056]
離散空間におけるワッサーシュタイン勾配流に対応する LB 関数がどのように LB 力学をもたらすかを示す。
シミュレーション時間に関してLBダイナミクスを識別し,新しいアルゴリズムであるLocally Balanced Jump (LBJ)を提案する。
論文 参考訳(メタデータ) (2022-06-29T20:33:54Z) - Value-Function-based Sequential Minimization for Bi-level Optimization [52.39882976848064]
勾配に基づくBi-Level Optimization (BLO)法は、現代の学習課題に広く応用されている。
機能的制約のあるBLOや悲観的なBLOなど、難解なシナリオでBLOを解くことができる勾配ベースの方法はほとんどない。
上記の問題に対処するために,BVFSM(Bi-level Value-Function-based Sequential Minimization)を提案する。
論文 参考訳(メタデータ) (2021-10-11T03:13:39Z) - Orthogonal Projection Loss [59.61277381836491]
直交射影損失(OPL)と呼ばれる新しい損失関数を開発する。
OPLは、機能空間におけるクラス内クラスタリングとクラス間分離を直接実施する。
OPLは、慎重な負のマイニングを必要とせず、バッチサイズに敏感であるため、ユニークな利点がある。
論文 参考訳(メタデータ) (2021-03-25T17:58:00Z) - A Generic First-Order Algorithmic Framework for Bi-Level Programming
Beyond Lower-Level Singleton [49.23948907229656]
Bi-level Descent Aggregationは、汎用的な双方向最適化のためのフレキシブルでモジュール化されたアルゴリズムフレームワークである。
LLS条件なしでBDAの収束を証明する新しい手法を導出する。
我々の研究は、BDAが特定の一階計算モジュールの検証と互換性があることも示している。
論文 参考訳(メタデータ) (2020-06-07T05:18:50Z) - UFO-BLO: Unbiased First-Order Bilevel Optimization [42.49533978193117]
我々は,この収束を理論的に保証できる,新しいFOBLOに基づく外層勾配の非バイアス推定法を提案する。
この結果はOmniglotとMini-ImageNet,人気の数ショットメタラーニングベンチマークの実験結果によって裏付けられている。
論文 参考訳(メタデータ) (2020-06-05T18:53:45Z) - On the Convergence Rate of Projected Gradient Descent for a
Back-Projection based Objective [58.33065918353532]
我々は、最小二乗(LS)の代替として、バックプロジェクションに基づく忠実度項を考える。
LS項ではなくBP項を用いることで最適化アルゴリズムの繰り返しを少なくすることを示す。
論文 参考訳(メタデータ) (2020-05-03T00:58:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。