論文の概要: Advancing RVFL networks: Robust classification with the HawkEye loss function
- arxiv url: http://arxiv.org/abs/2410.00510v1
- Date: Thu, 17 Oct 2024 10:12:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 05:07:10.062704
- Title: Advancing RVFL networks: Robust classification with the HawkEye loss function
- Title(参考訳): RVFLネットワークの高速化:HawkEye損失関数を用いたロバスト分類
- Authors: Mushir Akhtar, M. Tanveer, Mohd. Arshad,
- Abstract要約: 本稿では,Randomベクトル関数リンク(RVFL)フレームワークにHawkeEye損失(H-loss)関数を組み込むことを提案する。
H-loss関数は、滑らかさと有界性を含む優れた数学的特性を特徴とし、同時に非感性ゾーンを組み込む。
提案したH-RVFLモデルの有効性は、UCIおよびKEELレポジトリから40ドルのデータセットで実験することで検証される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Random vector functional link (RVFL), a variant of single-layer feedforward neural network (SLFN), has garnered significant attention due to its lower computational cost and robustness to overfitting. Despite its advantages, the RVFL network's reliance on the square error loss function makes it highly sensitive to outliers and noise, leading to degraded model performance in real-world applications. To remedy it, we propose the incorporation of the HawkEye loss (H-loss) function into the RVFL framework. The H-loss function features nice mathematical properties, including smoothness and boundedness, while simultaneously incorporating an insensitive zone. Each characteristic brings its own advantages: 1) Boundedness limits the impact of extreme errors, enhancing robustness against outliers; 2) Smoothness facilitates the use of gradient-based optimization algorithms, ensuring stable and efficient convergence; and 3) The insensitive zone mitigates the effect of minor discrepancies and noise. Leveraging the H-loss function, we embed it into the RVFL framework and develop a novel robust RVFL model termed H-RVFL. Notably, this work addresses a significant gap, as no bounded loss function has been incorporated into RVFL to date. The non-convex optimization of the proposed H-RVFL is effectively addressed by the Nesterov accelerated gradient (NAG) algorithm, whose computational complexity is also discussed. The proposed H-RVFL model's effectiveness is validated through extensive experiments on $40$ benchmark datasets from UCI and KEEL repositories, with and without label noise. The results highlight significant improvements in robustness and efficiency, establishing the H-RVFL model as a powerful tool for applications in noisy and outlier-prone environments.
- Abstract(参考訳): 単一層フィードフォワードニューラルネットワーク (SLFN) の変種であるランダムベクトル汎関数リンク (RVFL) は、計算コストの低減とオーバーフィッティングに対する堅牢性により、大きな注目を集めている。
その利点にもかかわらず、RVFLネットワークの正方形誤差損失関数への依存は、外れ値やノイズに非常に敏感であり、現実のアプリケーションではモデル性能が劣化する。
そこで本研究では,HawkeEye損失関数(H-loss)をRVFLフレームワークに組み込むことを提案する。
H-loss関数は、滑らかさと有界性を含む優れた数学的特性を特徴とし、同時に非感性ゾーンを組み込む。
それぞれの特徴は、それぞれ独自の利点をもたらします。
1) 境界性は,過度なエラーの影響を制限し,かつ,外れ値に対する堅牢性を高める。
2)スムースネスは、勾配に基づく最適化アルゴリズムの使用を促進し、安定かつ効率的な収束を保証する。
3) 感度の低いゾーンは, 微妙な相違や雑音の影響を緩和する。
H-loss関数を活用することで、RVFLフレームワークに組み込んで、H-RVFLと呼ばれる新しい堅牢なRVFLモデルを開発する。
特に、この研究は、これまでRVFLに有界損失関数が組み込まれていなかったため、大きなギャップに対処する。
提案したH-RVFLの非凸最適化は、計算複雑性を議論するネステロフ加速勾配(NAG)アルゴリズムによって効果的に処理される。
提案したH-RVFLモデルの有効性は、UCIとKEELリポジトリの40ドルのベンチマークデータセットに対して、ラベルノイズを伴わずに広範な実験によって検証される。
その結果, 強靭性や効率性が向上し, H-RVFL モデルを雑音や外乱発生環境におけるアプリケーションのための強力なツールとして確立した。
関連論文リスト
- Towards Resource-Efficient Federated Learning in Industrial IoT for Multivariate Time Series Analysis [50.18156030818883]
異常と欠落したデータは、産業応用における厄介な問題を構成する。
ディープラーニングによる異常検出が重要な方向として現れている。
エッジデバイスで収集されたデータは、ユーザのプライバシを含む。
論文 参考訳(メタデータ) (2024-11-06T15:38:31Z) - LEARN: An Invex Loss for Outlier Oblivious Robust Online Optimization [56.67706781191521]
敵は、学習者に未知の任意の数kの損失関数を破損させることで、外れ値を導入することができる。
我々は,任意の数kで損失関数を破損させることで,敵が外乱を発生させることができる,頑健なオンラインラウンド最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-12T17:08:31Z) - Wave-RVFL: A Randomized Neural Network Based on Wave Loss Function [0.0]
本稿では,ウェーブロス関数を組み込んだ RVFL モデル Wave-RVFL を提案する。
Wave-RVFLは、偏差の過料金化を防ぎ、ノイズや外れ値に対する堅牢性を示す。
実験結果から,Wave-RVFLの性能とロバスト性は,ベースラインモデルよりも優れていたことが確認された。
論文 参考訳(メタデータ) (2024-08-05T20:46:54Z) - Advancing Supervised Learning with the Wave Loss Function: A Robust and Smooth Approach [0.0]
本稿では,非対称な損失関数であるウェーブロスという,教師あり機械学習の領域への新たな貢献について述べる。
提案したウェーブロス関数を,サポートベクトルマシン (SVM) とツインサポートベクトルマシン (TSVM) の最小2乗設定に組み込む。
提案する Wave-SVM と Wave-TSVM の有効性を実証的に示すため,UCI と KEEL のベンチマークを用いて評価を行った。
論文 参考訳(メタデータ) (2024-04-28T07:32:00Z) - HawkEye: Advancing Robust Regression with Bounded, Smooth, and
Insensitive Loss Function [0.0]
我々は,HawkeEye損失関数という新しい対称損失関数を導入する。
これは、SVR文学における最初の損失関数であり、バウンドされ、滑らかで、同時に非感性ゾーンを持つ。
我々はHE-LSSVRと呼ばれる新しい高速で堅牢なモデルを得る。
論文 参考訳(メタデータ) (2024-01-30T06:53:59Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - An Empirical Study on GANs with Margin Cosine Loss and Relativistic
Discriminator [4.899818550820575]
我々は新しい損失関数、すなわち相対論的Margin Cosine Loss(RMCosGAN)を導入する。
本稿では,RCCosGANの性能と既存の損失関数を比較する。
実験の結果,RCCosGANは既存の画像よりも優れており,画像の品質が著しく向上していることがわかった。
論文 参考訳(メタデータ) (2021-10-21T17:25:47Z) - Local AdaGrad-Type Algorithm for Stochastic Convex-Concave Minimax
Problems [80.46370778277186]
大規模凸凹型ミニマックス問題は、ゲーム理論、堅牢なトレーニング、生成的敵ネットワークのトレーニングなど、多くの応用で発生する。
通信効率のよい分散外グレードアルゴリズムであるLocalAdaSientを開発した。
サーバモデル。
等質な環境と異質な環境の両方において,その有効性を実証する。
論文 参考訳(メタデータ) (2021-06-18T09:42:05Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。