論文の概要: Wave-RVFL: A Randomized Neural Network Based on Wave Loss Function
- arxiv url: http://arxiv.org/abs/2408.02824v1
- Date: Mon, 5 Aug 2024 20:46:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-07 15:38:41.223973
- Title: Wave-RVFL: A Randomized Neural Network Based on Wave Loss Function
- Title(参考訳): Wave-RVFL:ウェーブロス関数に基づくランダムニューラルネットワーク
- Authors: M. Sajid, A. Quadir, M. Tanveer,
- Abstract要約: 本稿では,ウェーブロス関数を組み込んだ RVFL モデル Wave-RVFL を提案する。
Wave-RVFLは、偏差の過料金化を防ぎ、ノイズや外れ値に対する堅牢性を示す。
実験結果から,Wave-RVFLの性能とロバスト性は,ベースラインモデルよりも優れていたことが確認された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The random vector functional link (RVFL) network is well-regarded for its strong generalization capabilities in the field of machine learning. However, its inherent dependencies on the square loss function make it susceptible to noise and outliers. Furthermore, the calculation of RVFL's unknown parameters necessitates matrix inversion of the entire training sample, which constrains its scalability. To address these challenges, we propose the Wave-RVFL, an RVFL model incorporating the wave loss function. We formulate and solve the proposed optimization problem of the Wave-RVFL using the adaptive moment estimation (Adam) algorithm in a way that successfully eliminates the requirement for matrix inversion and significantly enhances scalability. The Wave-RVFL exhibits robustness against noise and outliers by preventing over-penalization of deviations, thereby maintaining a balanced approach to managing noise and outliers. The proposed Wave-RVFL model is evaluated on multiple UCI datasets, both with and without the addition of noise and outliers, across various domains and sizes. Empirical results affirm the superior performance and robustness of the Wave-RVFL compared to baseline models, establishing it as a highly effective and scalable classification solution.
- Abstract(参考訳): ランダムベクトル汎関数リンク(RVFL)ネットワークは、機械学習の分野における強力な一般化能力についてよく考えられている。
しかし、その正方損失関数に固有の依存関係はノイズや外周の影響を受けやすい。
さらに、RVFLの未知パラメータの計算は、その拡張性を制約するトレーニングサンプル全体の行列逆転を必要とする。
これらの課題に対処するために、ウェーブロス関数を組み込んだRVFLモデルであるWave-RVFLを提案する。
本稿では,適応モーメント推定(Adam)アルゴリズムを用いて,ウェーブ-RVFLの最適化問題を定式化して解く。
Wave-RVFLは、偏差の過給化を防止し、ノイズと外れ値を管理するためのバランスの取れたアプローチを維持することにより、ノイズと外れ値に対する堅牢性を示す。
提案するWave-RVFLモデルは,複数のUCIデータセットに対して,ノイズや外れ値の追加の有無に関わらず,さまざまな領域やサイズで評価される。
実験結果から、Wave-RVFLの性能とロバスト性はベースラインモデルよりも優れており、非常に効果的でスケーラブルな分類ソリューションとして確立されている。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Advancing RVFL networks: Robust classification with the HawkEye loss function [0.0]
本稿では,Randomベクトル関数リンク(RVFL)フレームワークにHawkeEye損失(H-loss)関数を組み込むことを提案する。
H-loss関数は、滑らかさと有界性を含む優れた数学的特性を特徴とし、同時に非感性ゾーンを組み込む。
提案したH-RVFLモデルの有効性は、UCIおよびKEELレポジトリから40ドルのデータセットで実験することで検証される。
論文 参考訳(メタデータ) (2024-10-01T08:48:05Z) - Advancing Supervised Learning with the Wave Loss Function: A Robust and Smooth Approach [0.0]
本稿では,非対称な損失関数であるウェーブロスという,教師あり機械学習の領域への新たな貢献について述べる。
提案したウェーブロス関数を,サポートベクトルマシン (SVM) とツインサポートベクトルマシン (TSVM) の最小2乗設定に組み込む。
提案する Wave-SVM と Wave-TSVM の有効性を実証的に示すため,UCI と KEEL のベンチマークを用いて評価を行った。
論文 参考訳(メタデータ) (2024-04-28T07:32:00Z) - Adaptive LPD Radar Waveform Design with Generative Deep Learning [6.21540494241516]
本稿では,検出レーダ波形の低確率を適応的に生成する新しい学習手法を提案する。
提案手法では,検出可能性の最大90%を低減できるLPD波形を生成できると同時に,アンビグニティ関数(センシング)特性も向上する。
論文 参考訳(メタデータ) (2024-03-18T21:07:57Z) - Joint Power Control and Data Size Selection for Over-the-Air Computation
Aided Federated Learning [19.930700426682982]
フェデレートラーニング(FL)は、複数のモバイルデバイスで生成された大量の生データを処理するための、魅力的な機械学習アプローチとして登場した。
本稿では,基地局と移動機器の信号増幅係数を協調的に最適化することを提案する。
提案手法は平均二乗誤差(MSE)を大幅に低減し,FLの性能向上に有効である。
論文 参考訳(メタデータ) (2023-08-17T16:01:02Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - Uncertainty-Aware Source-Free Adaptive Image Super-Resolution with Wavelet Augmentation Transformer [60.31021888394358]
Unsupervised Domain Adaptation (UDA)は、現実世界の超解像(SR)における領域ギャップ問題に効果的に対処できる
本稿では,画像SR(SODA-SR)のためのSOurce-free Domain Adaptationフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-31T03:14:44Z) - Amplitude-Varying Perturbation for Balancing Privacy and Utility in
Federated Learning [86.08285033925597]
本稿では,フェデレート学習のプライバシを保護するため,時変雑音振幅を持つ新しいDP摂動機構を提案する。
我々は、FLの過度な摂動ノイズによる早期収束を防止するために、シリーズのオンラインリファインメントを導出した。
新しいDP機構のプライバシ保存FLの収束と精度への寄与は、持続的な雑音振幅を持つ最先端のガウスノイズ機構と比較して相関する。
論文 参考訳(メタデータ) (2023-03-07T22:52:40Z) - Performance Optimization for Variable Bitwidth Federated Learning in
Wireless Networks [103.22651843174471]
本稿では,モデル量子化による統合学習(FL)における無線通信と計算効率の向上について考察する。
提案したビット幅FL方式では,エッジデバイスは局所FLモデルパラメータの量子化バージョンを調整し,コーディネートサーバに送信し,それらを量子化されたグローバルモデルに集約し,デバイスを同期させる。
FLトレーニングプロセスはマルコフ決定プロセスとして記述でき、反復よりも行動選択を最適化するためのモデルベース強化学習(RL)手法を提案する。
論文 参考訳(メタデータ) (2022-09-21T08:52:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。