論文の概要: RoBoSS: A Robust, Bounded, Sparse, and Smooth Loss Function for
Supervised Learning
- arxiv url: http://arxiv.org/abs/2309.02250v1
- Date: Tue, 5 Sep 2023 13:59:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 14:22:56.306443
- Title: RoBoSS: A Robust, Bounded, Sparse, and Smooth Loss Function for
Supervised Learning
- Title(参考訳): RoBoSS: 教師付き学習のためのロバスト,バウンド,スパース,スムースロス機能
- Authors: Mushir Akhtar, M. Tanveer, and Mohd. Arshad
- Abstract要約: そこで本研究では,教師あり学習のための,頑健で,有界で,スパースで,スムーズなロス関数(RoBoSS)を提案する。
未確認データの一般化のために,$mathcalL_rbss$-SVMという新しいロバストアルゴリズムを導入する。
提案した$mathcalL_rbss$-SVM を実世界の UCI と KEEL のデータセットで18ドルで評価した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the domain of machine learning algorithms, the significance of the loss
function is paramount, especially in supervised learning tasks. It serves as a
fundamental pillar that profoundly influences the behavior and efficacy of
supervised learning algorithms. Traditional loss functions, while widely used,
often struggle to handle noisy and high-dimensional data, impede model
interpretability, and lead to slow convergence during training. In this paper,
we address the aforementioned constraints by proposing a novel robust, bounded,
sparse, and smooth (RoBoSS) loss function for supervised learning. Further, we
incorporate the RoBoSS loss function within the framework of support vector
machine (SVM) and introduce a new robust algorithm named
$\mathcal{L}_{rbss}$-SVM. For the theoretical analysis, the
classification-calibrated property and generalization ability are also
presented. These investigations are crucial for gaining deeper insights into
the performance of the RoBoSS loss function in the classification tasks and its
potential to generalize well to unseen data. To empirically demonstrate the
effectiveness of the proposed $\mathcal{L}_{rbss}$-SVM, we evaluate it on $88$
real-world UCI and KEEL datasets from diverse domains. Additionally, to
exemplify the effectiveness of the proposed $\mathcal{L}_{rbss}$-SVM within the
biomedical realm, we evaluated it on two medical datasets: the
electroencephalogram (EEG) signal dataset and the breast cancer (BreaKHis)
dataset. The numerical results substantiate the superiority of the proposed
$\mathcal{L}_{rbss}$-SVM model, both in terms of its remarkable generalization
performance and its efficiency in training time.
- Abstract(参考訳): 機械学習アルゴリズムの分野では、特に教師付き学習タスクにおいて、損失関数の重要性が最重要である。
教師付き学習アルゴリズムの振る舞いと有効性に深く影響を及ぼす基本的な柱として機能する。
従来の損失関数は広く使われているが、しばしばノイズや高次元のデータを扱うのに苦労し、モデルの解釈可能性を妨げる。
本稿では,教師付き学習のための新しいロバスト,バウンド,スパース,スムース(RoBoSS)損失関数を提案することで,上記の制約に対処する。
さらに、サポートベクトルマシン(SVM)のフレームワークにRoBoSS損失関数を組み込んで、$\mathcal{L}_{rbss}$-SVMという新しいロバストアルゴリズムを導入する。
理論解析では,分類に適合した性質と一般化能力も提示する。
これらの調査は、分類タスクにおけるRoBoSS損失関数の性能に関する深い洞察を得る上で重要である。
提案した $\mathcal{L}_{rbss}$-SVM の有効性を実証的に示すため,実世界の UCI と KEEL のデータセットを多種多様な領域から評価した。
さらに,生体医学領域で提案された$\mathcal{l}_{rbss}$-svmの有効性を実証するために,心電図(eeg)信号データセットと乳がん(breakhis)データセットの2つの医療データセットで評価した。
数値計算の結果から,提案する$\mathcal{l}_{rbss}$-svmモデルの卓越性は,その顕著な一般化性能とトレーニング時間における効率の両面で証明された。
関連論文リスト
- On Discriminative Probabilistic Modeling for Self-Supervised Representation Learning [85.75164588939185]
複数モーダルな)自己教師付き表現学習のための連続領域における識別確率モデル問題について検討する。
我々は、自己教師付き表現学習における現在のInfoNCEに基づくコントラスト損失の制限を明らかにするために一般化誤差解析を行う。
論文 参考訳(メタデータ) (2024-10-11T18:02:46Z) - Tractable and Provably Efficient Distributional Reinforcement Learning with General Value Function Approximation [8.378137704007038]
一般値関数近似を用いた分布強化学習における後悔の解析について述べる。
理論的な結果は,無限次元の戻り分布を有限個のモーメント関数で近似することが,統計情報をバイアスなく学習する唯一の方法であることを示している。
論文 参考訳(メタデータ) (2024-07-31T00:43:51Z) - Advancing Supervised Learning with the Wave Loss Function: A Robust and Smooth Approach [0.0]
本稿では,非対称な損失関数であるウェーブロスという,教師あり機械学習の領域への新たな貢献について述べる。
提案したウェーブロス関数を,サポートベクトルマシン (SVM) とツインサポートベクトルマシン (TSVM) の最小2乗設定に組み込む。
提案する Wave-SVM と Wave-TSVM の有効性を実証的に示すため,UCI と KEEL のベンチマークを用いて評価を行った。
論文 参考訳(メタデータ) (2024-04-28T07:32:00Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - Graph Embedded Intuitionistic Fuzzy Random Vector Functional Link Neural
Network for Class Imbalance Learning [4.069144210024564]
クラス不均衡学習(GE-IFRVFL-CIL)モデルのためのグラフ埋め込み直観的ファジィRVFLを提案する。
提案したGE-IFRVFL-CILモデルは、クラス不均衡問題に対処し、ノイズとアウトレーヤの有害な効果を軽減し、データセットの固有の幾何学的構造を保存するための有望な解決策を提供する。
論文 参考訳(メタデータ) (2023-07-15T20:45:45Z) - Provably Efficient Representation Learning with Tractable Planning in
Low-Rank POMDP [81.00800920928621]
部分的に観測可能なマルコフ決定過程(POMDP)における表現学習の研究
まず,不確実性(OFU)に直面した最大推定(MLE)と楽観性を組み合わせた復調性POMDPのアルゴリズムを提案する。
次に、このアルゴリズムをより広範な$gamma$-observable POMDPのクラスで機能させる方法を示す。
論文 参考訳(メタデータ) (2023-06-21T16:04:03Z) - Xtreme Margin: A Tunable Loss Function for Binary Classification
Problems [0.0]
本稿では,新しい損失関数 Xtreme Margin の損失関数について概説する。
二進的クロスエントロピーやヒンジ損失関数とは異なり、この損失関数は研究者や実践者がトレーニングプロセスに柔軟性をもたらす。
論文 参考訳(メタデータ) (2022-10-31T22:39:32Z) - Learning with Multiclass AUC: Theory and Algorithms [141.63211412386283]
ROC曲線 (AUC) の下の領域は、不均衡学習やレコメンダシステムといった問題に対するよく知られたランキング基準である。
本稿では,マルチクラスAUCメトリクスを最適化することで,多クラススコアリング関数を学習する問題について検討する。
論文 参考訳(メタデータ) (2021-07-28T05:18:10Z) - $\sigma^2$R Loss: a Weighted Loss by Multiplicative Factors using
Sigmoidal Functions [0.9569316316728905]
我々は,二乗還元損失(sigma2$R損失)と呼ばれる新たな損失関数を導入する。
我々の損失は明らかな直観と幾何学的解釈を持ち、我々の提案の有効性を実験によって実証する。
論文 参考訳(メタデータ) (2020-09-18T12:34:40Z) - Estimating Structural Target Functions using Machine Learning and
Influence Functions [103.47897241856603]
統計モデルから特定可能な関数として生じる対象関数の統計的機械学習のための新しい枠組みを提案する。
このフレームワークは問題とモデルに依存しないものであり、応用統計学における幅広い対象パラメータを推定するのに使用できる。
我々は、部分的に観測されていない情報を持つランダム/二重ロバストな問題において、いわゆる粗大化に特に焦点をあてた。
論文 参考訳(メタデータ) (2020-08-14T16:48:29Z) - Influence Functions in Deep Learning Are Fragile [52.31375893260445]
影響関数は、テスト時間予測におけるサンプルの効果を近似する。
影響評価は浅いネットワークでは かなり正確です
ヘッセン正則化は、高品質な影響推定を得るために重要である。
論文 参考訳(メタデータ) (2020-06-25T18:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。