論文の概要: R^2VFL: A Robust Random Vector Functional Link Network with Huber-Weighted Framework
- arxiv url: http://arxiv.org/abs/2504.21069v1
- Date: Tue, 29 Apr 2025 14:20:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 23:52:14.614639
- Title: R^2VFL: A Robust Random Vector Functional Link Network with Huber-Weighted Framework
- Title(参考訳): R^2VFL:ハマー重み付きフレームワークを用いたロバストランダムベクトル関数リンクネットワーク
- Authors: Anuradha Kumari, Mushir Akhtar, P. N. Suganthan, M. Tanveer,
- Abstract要約: ランダムベクトル汎関数リンク(RVFL)ニューラルネットワークは、従来の人工ニューラルネットワークの制約を克服する大きな可能性を示している。
本稿では,ハマー重み関数とクラス確率を持つ新しいフレームワーク,R2VFL,RVFLを提案する。
提案したモデルを47のUCIデータセット上で広範囲に評価し,厳密な統計的検証を行い,提案モデルの優位性を確認した。
- 参考スコア(独自算出の注目度): 0.5892638927736115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The random vector functional link (RVFL) neural network has shown significant potential in overcoming the constraints of traditional artificial neural networks, such as excessive computation time and suboptimal solutions. However, RVFL faces challenges when dealing with noise and outliers, as it assumes all data samples contribute equally. To address this issue, we propose a novel robust framework, R2VFL, RVFL with Huber weighting function and class probability, which enhances the model's robustness and adaptability by effectively mitigating the impact of noise and outliers in the training data. The Huber weighting function reduces the influence of outliers, while the class probability mechanism assigns less weight to noisy data points, resulting in a more resilient model. We explore two distinct approaches for calculating class centers within the R2VFL framework: the simple average of all data points in each class and the median of each feature, the later providing a robust alternative by minimizing the effect of extreme values. These approaches give rise to two novel variants of the model-R2VFL-A and R2VFL-M. We extensively evaluate the proposed models on 47 UCI datasets, encompassing both binary and multiclass datasets, and conduct rigorous statistical testing, which confirms the superiority of the proposed models. Notably, the models also demonstrate exceptional performance in classifying EEG signals, highlighting their practical applicability in real-world biomedical domain.
- Abstract(参考訳): ランダムベクトル汎関数リンク(RVFL)ニューラルネットワークは、過剰な計算時間や準最適解など、従来の人工ニューラルネットワークの制約を克服する大きな可能性を示している。
しかしながら、RVFLは、すべてのデータサンプルが等しく寄与することを前提として、ノイズや異常値を扱う際の課題に直面している。
本稿では,ハマー重み関数とクラス確率を備えた新しいロバストフレームワーク,R2VFL,RVFLを提案する。
ハマー重み関数は外れ値の影響を減らし、クラス確率機構はノイズの多いデータポイントにより少ない重みを割り当て、より弾力的なモデルをもたらす。
R2VFLフレームワーク内のクラス中心を計算するための2つの異なるアプローチを探求する。各クラス内のすべてのデータポイントの単純な平均と各特徴の中央値であり、後者は極端な値の影響を最小限に抑えて頑健な代替手段を提供する。
これらのアプローチはモデル-R2VFL-AとR2VFL-Mの2つの新しいバリエーションをもたらす。
我々は、47のUCIデータセット上で、バイナリとマルチクラスの両方のデータセットを包含し、厳密な統計的テストを行い、提案モデルの優位性を確認する。
特に、これらのモデルは脳波信号の分類における例外的な性能を示し、現実世界のバイオメディカル領域における実用性を強調している。
関連論文リスト
- Randomized based restricted kernel machine for hyperspectral image classification [0.0]
ランダムベクトル汎関数リンク(RVFL)ネットワークは、ハイパースペクトル画像(HSI)分類において大きな人気を得ている。
RVFLモデルは、特に非線形関係や複雑なデータ構造を扱う際に、いくつかの制限に直面している。
本稿では,RVFLと制限されたカーネルマシンを併用した,ランダム化された制限されたカーネルマシン(R2KM$)モデルを提案する。
論文 参考訳(メタデータ) (2025-03-06T17:18:39Z) - Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - Scalable Random Feature Latent Variable Models [8.816134440622696]
ブロック座標降下変動推論(BCD-VI)と呼ばれる明示的なPDFと新しいVBIアルゴリズムを得るために,ディリクレプロセス(DP)のスティック破断構成を導入する。
これにより、RFLVMのスケーラブルバージョン、あるいは略してSRFLVMの開発が可能になる。
論文 参考訳(メタデータ) (2024-10-23T09:22:43Z) - Noise-Resilient Unsupervised Graph Representation Learning via Multi-Hop Feature Quality Estimation [53.91958614666386]
グラフニューラルネットワーク(GNN)に基づく教師なしグラフ表現学習(UGRL)
マルチホップ特徴量推定(MQE)に基づく新しいUGRL法を提案する。
論文 参考訳(メタデータ) (2024-07-29T12:24:28Z) - FedLPS: Heterogeneous Federated Learning for Multiple Tasks with Local
Parameter Sharing [14.938531944702193]
局所異種共有を用いたフェデレーション学習(FedLPS)を提案する。
FedLPSは転送学習を使用して、ローカルモデルを共有エンコーダとタスク固有のエンコーダに分割することで、複数のタスクをひとつのデバイスにデプロイする。
FedLPSは最先端(SOTA)のFLフレームワークを最大4.88%上回り、計算資源消費量を21.3%減らす。
論文 参考訳(メタデータ) (2024-02-13T16:30:30Z) - Random Linear Projections Loss for Hyperplane-Based Optimization in Neural Networks [22.348887008547653]
この研究はRandom Linear Projections (RLP)損失を導入し、これはデータ内の幾何学的関係を利用してトレーニング効率を向上させる新しいアプローチである。
ベンチマークデータセットと合成例を用いて実施した経験的評価では、従来の損失関数でトレーニングされたニューラルネットワークは、従来の損失関数でトレーニングされたニューラルネットワークよりも優れていたことが示されている。
論文 参考訳(メタデータ) (2023-11-21T05:22:39Z) - Graph Embedded Intuitionistic Fuzzy Random Vector Functional Link Neural
Network for Class Imbalance Learning [4.069144210024564]
クラス不均衡学習(GE-IFRVFL-CIL)モデルのためのグラフ埋め込み直観的ファジィRVFLを提案する。
提案したGE-IFRVFL-CILモデルは、クラス不均衡問題に対処し、ノイズとアウトレーヤの有害な効果を軽減し、データセットの固有の幾何学的構造を保存するための有望な解決策を提供する。
論文 参考訳(メタデータ) (2023-07-15T20:45:45Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Federated Latent Class Regression for Hierarchical Data [5.110894308882439]
フェデレートラーニング(FL)は、多くのエージェントがローカルに保存されたデータを開示することなく、グローバル機械学習モデルのトレーニングに参加することを可能にする。
本稿では,新しい確率モデルである階層潜在クラス回帰(HLCR)を提案し,フェデレートラーニング(FEDHLCR)への拡張を提案する。
我々の推論アルゴリズムはベイズ理論から派生したもので、強い収束保証と過剰適合性を提供する。実験結果から、FEDHLCRは非IIDデータセットにおいても高速収束を提供することが示された。
論文 参考訳(メタデータ) (2022-06-22T00:33:04Z) - Provable Model-based Nonlinear Bandit and Reinforcement Learning: Shelve
Optimism, Embrace Virtual Curvature [61.22680308681648]
決定論的報酬を有する1層ニューラルネットバンディットにおいても,グローバル収束は統計的に難解であることを示す。
非線形バンディットとRLの両方に対して,オンラインモデル学習者による仮想アセンジ(Virtual Ascent with Online Model Learner)というモデルベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-08T12:41:56Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。