論文の概要: LBL: Logarithmic Barrier Loss Function for One-class Classification
- arxiv url: http://arxiv.org/abs/2307.10753v2
- Date: Wed, 22 Oct 2025 08:36:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:01.321766
- Title: LBL: Logarithmic Barrier Loss Function for One-class Classification
- Title(参考訳): LBL:一級分類のための対数障壁損失関数
- Authors: Xiaofeng Guo, Ziyang Jiang, Tianlei Wang, Shichen Zhang, Dinghan Hu, Jiuwen Cao,
- Abstract要約: 1クラス分類(OCC)は、対象データのみに基づいて分類器を訓練することを目的としており、注目を集めている。
OCCは多くの進歩を遂げているが、深層学習に有効なOCC損失機能を欠いている。
本稿では,新たな対数障壁関数に基づくOCC損失(LBL)を提案する。
- 参考スコア(独自算出の注目度): 15.654754876276167
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One-class classification (OCC) aims to train a classifier solely on target data and attracts increasing attention due to its applicability in practice. Despite OCC has obtained many advances, it still lacks the effective OCC loss functions for deep learning. In this paper, a novel logarithmic barrier function based OCC loss (LBL) that assigns large gradients to margin samples and thus derives more compact hypersphere is first proposed by approximating the OCC objective smoothly. But the optimization of LBL may be instability especially when samples lie on the boundary leading to the infinity value. To address this issue, a smoother LBLSig loss is further proposed by utilizing a unilateral relaxation Sigmoid function. Experiments on different networks demonstrate the effectiveness of the proposed LBL and LBLSig. The source code can be found at https://github.com/ML-HDU/LBL_LBLSig.
- Abstract(参考訳): 1クラス分類(OCC)は、対象データのみに基づいて分類器を訓練することを目的としており、実際に適用可能であるため、注目を集めている。
OCCは多くの進歩を遂げているが、深層学習に有効なOCC損失機能を欠いている。
本稿では, 対数障壁関数に基づく新しいOCC損失(LBL)を提案し, OCCの目的をスムーズに近似することにより, よりコンパクトな超球面を導出する。
しかし、LBLの最適化は、特にサンプルが無限大の値につながる境界上にある場合、不安定である可能性がある。
この問題に対処するために、片側緩和シグモイド関数を用いて、よりスムーズなLBLSig損失を提案する。
異なるネットワーク上での実験では、提案したLBLとLBLSigの有効性が示されている。
ソースコードはhttps://github.com/ML-HDU/LBL_LBLSigにある。
関連論文リスト
- Efficient Large Language Model Inference with Neural Block Linearization [47.89931529975717]
本稿では,トランスフォーマーモデル推論を高速化する新しいフレームワークであるNeural Block Linearization (NBL)を紹介する。
NBLは、線形最小平均正方形誤差推定器から導かれる線形近似で自己アテンション層を置き換える。
実験では、NBLは、複数の推論ベンチマークで競合精度を維持しながら、顕著な計算スピードアップを達成する。
論文 参考訳(メタデータ) (2025-05-27T12:01:43Z) - Bayesian Optimisation with Unknown Hyperparameters: Regret Bounds Logarithmically Closer to Optimal [18.93478528448966]
本稿では,Longth Scale Balancing (LB)について紹介する。
LBは、長いスケールを維持しながら、長いスケールの候補値を追加し、探索とエクスプロイトのバランスをとる。
LB はオラクルの後悔からわずか$log g(T) 離れている。
論文 参考訳(メタデータ) (2024-10-14T11:17:00Z) - RecDCL: Dual Contrastive Learning for Recommendation [65.6236784430981]
本稿では、RecDCLという2つのコントラスト学習推薦フレームワークを提案する。
RecDCLでは、FCLの目的は、ユーザとイテムの正のペアに対する冗長なソリューションを排除することである。
BCLの目的は、表現の堅牢性を高めるために出力ベクトルにコントラスト埋め込みを生成するために利用される。
論文 参考訳(メタデータ) (2024-01-28T11:51:09Z) - CRaSh: Clustering, Removing, and Sharing Enhance Fine-tuning without
Full Large Language Model [22.870512676002463]
本稿では,集中型LCMと下流エミュレータ間でトランスフォーマブロックを転送する代表的手法であるOffsite-Tuning(OFT)に焦点を当てる。
これらの観測にインスパイアされたCRaShは、LCMから改善エミュレータを導出するトレーニングフリー戦略であるClustering、Removing、Sharingを含む。
以上の結果から,CRaShとOFTの有効性が明らかとなった。
論文 参考訳(メタデータ) (2023-10-24T03:08:58Z) - Intuitionistic Fuzzy Broad Learning System: Enhancing Robustness Against Noise and Outliers [0.0]
本稿では,ファジィ広範学習システム (F-BLS) と直観的ファジィ広範学習システム (IF-BLS) モデルを提案する。
アルツハイマー病(AD)の診断のためのF-BLSモデルとIF-BLSモデルを実装した。
論文 参考訳(メタデータ) (2023-07-15T21:40:36Z) - Averaged Method of Multipliers for Bi-Level Optimization without
Lower-Level Strong Convexity [43.092883358935545]
単ループ二値乗算器 (sl-BAMM) を両レベル最適化 (BLO) のために提案する。
我々は, sl-BAMMのKKT定常点への非漸近収束解析を行い, 解析の利点は強い勾配有界性仮定の欠如にある。
論文 参考訳(メタデータ) (2023-02-07T11:29:05Z) - Discrete Langevin Sampler via Wasserstein Gradient Flow [102.94731267405056]
離散空間におけるワッサーシュタイン勾配流に対応する LB 関数がどのように LB 力学をもたらすかを示す。
シミュレーション時間に関してLBダイナミクスを識別し,新しいアルゴリズムであるLocally Balanced Jump (LBJ)を提案する。
論文 参考訳(メタデータ) (2022-06-29T20:33:54Z) - Value-Function-based Sequential Minimization for Bi-level Optimization [52.39882976848064]
勾配に基づくBi-Level Optimization (BLO)法は、現代の学習課題に広く応用されている。
機能的制約のあるBLOや悲観的なBLOなど、難解なシナリオでBLOを解くことができる勾配ベースの方法はほとんどない。
上記の問題に対処するために,BVFSM(Bi-level Value-Function-based Sequential Minimization)を提案する。
論文 参考訳(メタデータ) (2021-10-11T03:13:39Z) - Orthogonal Projection Loss [59.61277381836491]
直交射影損失(OPL)と呼ばれる新しい損失関数を開発する。
OPLは、機能空間におけるクラス内クラスタリングとクラス間分離を直接実施する。
OPLは、慎重な負のマイニングを必要とせず、バッチサイズに敏感であるため、ユニークな利点がある。
論文 参考訳(メタデータ) (2021-03-25T17:58:00Z) - A Generic First-Order Algorithmic Framework for Bi-Level Programming
Beyond Lower-Level Singleton [49.23948907229656]
Bi-level Descent Aggregationは、汎用的な双方向最適化のためのフレキシブルでモジュール化されたアルゴリズムフレームワークである。
LLS条件なしでBDAの収束を証明する新しい手法を導出する。
我々の研究は、BDAが特定の一階計算モジュールの検証と互換性があることも示している。
論文 参考訳(メタデータ) (2020-06-07T05:18:50Z) - UFO-BLO: Unbiased First-Order Bilevel Optimization [42.49533978193117]
我々は,この収束を理論的に保証できる,新しいFOBLOに基づく外層勾配の非バイアス推定法を提案する。
この結果はOmniglotとMini-ImageNet,人気の数ショットメタラーニングベンチマークの実験結果によって裏付けられている。
論文 参考訳(メタデータ) (2020-06-05T18:53:45Z) - On the Convergence Rate of Projected Gradient Descent for a
Back-Projection based Objective [58.33065918353532]
我々は、最小二乗(LS)の代替として、バックプロジェクションに基づく忠実度項を考える。
LS項ではなくBP項を用いることで最適化アルゴリズムの繰り返しを少なくすることを示す。
論文 参考訳(メタデータ) (2020-05-03T00:58:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。