論文の概要: GB-RVFL: Fusion of Randomized Neural Network and Granular Ball Computing
- arxiv url: http://arxiv.org/abs/2409.16735v1
- Date: Wed, 25 Sep 2024 08:33:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-27 04:50:49.367925
- Title: GB-RVFL: Fusion of Randomized Neural Network and Granular Ball Computing
- Title(参考訳): GB-RVFL:ランダムニューラルネットワークとグラニュラーボールコンピューティングの融合
- Authors: M. Sajid, A. Quadir, M. Tanveer,
- Abstract要約: ランダムベクトル汎関数リンク(RVFL)ネットワークは、強力な一般化能力を持つ顕著な分類モデルである。
トレーニングサンプルの代わりに粒状球(GB)を入力として使用する粒状球RVFL(GB-RVFL)モデルを提案する。
提案したGB-RVFLおよびGE-GB-RVFLモデルは,KEEL,UCI,NDC,バイオメディカルデータセットを用いて評価した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The random vector functional link (RVFL) network is a prominent classification model with strong generalization ability. However, RVFL treats all samples uniformly, ignoring whether they are pure or noisy, and its scalability is limited due to the need for inverting the entire training matrix. To address these issues, we propose granular ball RVFL (GB-RVFL) model, which uses granular balls (GBs) as inputs instead of training samples. This approach enhances scalability by requiring only the inverse of the GB center matrix and improves robustness against noise and outliers through the coarse granularity of GBs. Furthermore, RVFL overlooks the dataset's geometric structure. To address this, we propose graph embedding GB-RVFL (GE-GB-RVFL) model, which fuses granular computing and graph embedding (GE) to preserve the topological structure of GBs. The proposed GB-RVFL and GE-GB-RVFL models are evaluated on KEEL, UCI, NDC and biomedical datasets, demonstrating superior performance compared to baseline models.
- Abstract(参考訳): ランダムベクトル汎関数リンク(RVFL)ネットワークは、強力な一般化能力を持つ顕著な分類モデルである。
しかし、RVFLは全てのサンプルを均一に扱い、純粋かノイズかを無視し、そのスケーラビリティはトレーニングマトリックス全体を反転する必要があるため制限されている。
これらの問題に対処するため,訓練サンプルの代わりに粒状球(GB)を入力として使用する粒状球RVFL(GB-RVFL)モデルを提案する。
このアプローチは、GB中心行列の逆だけを必要とすることによりスケーラビリティを高め、GBの粗い粒度を通したノイズや外れ値に対する堅牢性を向上させる。
さらに、RVFLはデータセットの幾何学的構造を見落としている。
そこで我々は, グラフ埋め込み GB-RVFL (GE-GB-RVFL) モデルを提案する。
提案したGB-RVFLモデルとGE-GB-RVFLモデルは,KEEL,UCI,NDC,バイオメディカルデータセットを用いて評価し,ベースラインモデルと比較して優れた性能を示す。
関連論文リスト
- Enhancing Robustness and Efficiency of Least Square Twin SVM via Granular Computing [0.2999888908665658]
機械学習の分野では、最小二乗サポートベクターマシン(LSTSVM)が最先端モデルの1つとして際立っている。
LSTSVMはノイズやインバージョンに対する感受性に悩まされており、リサンプリングの原則と不安定さを見落としている。
そこで我々は,従来のデータポイントの代わりに粒状球を用いて学習した,頑健な粒状球 LSTSVM (GBLSTSVM) を提案する。
論文 参考訳(メタデータ) (2024-10-22T18:13:01Z) - Enhanced Feature Based Granular Ball Twin Support Vector Machine [0.5492530316344587]
機能強化型グラニュラーボールツインサポートベクター(EF-GBTSVM)を提案する。
提案モデルでは,個々のデータサンプルではなく,粒状(GB)の粗粒度を入力として用いた。
ベンチマーク UCI および KEEL データセット上で提案した EF-GBTSVM モデルを徹底的に評価する。
論文 参考訳(メタデータ) (2024-10-08T08:10:43Z) - GRVFL-MV: Graph Random Vector Functional Link Based on Multi-View Learning [0.2999888908665658]
マルチビュー学習(GRVFL-MV)モデルに基づく新しいグラフランダムベクトル関数リンクを提案する。
提案モデルは,マルチビュー学習(MVL)の概念を取り入れて,複数の視点で学習する。
また、グラフ埋め込み(GE)フレームワークを使用して、すべてのビューの幾何学的性質も取り入れている。
論文 参考訳(メタデータ) (2024-09-07T07:18:08Z) - A Non-negative VAE:the Generalized Gamma Belief Network [49.970917207211556]
ガンマ信念ネットワーク(GBN)は、テキストデータ中の多層解釈可能な潜在表現を明らかにする可能性を実証している。
本稿では、一般化ガンマ信念ネットワーク(Generalized GBN)を導入し、元の線形生成モデルをより表現力のある非線形生成モデルに拡張する。
また、潜伏変数の後方分布を近似する上向きのワイブル推論ネットワークを提案する。
論文 参考訳(メタデータ) (2024-08-06T18:18:37Z) - Wave-RVFL: A Randomized Neural Network Based on Wave Loss Function [0.0]
本稿では,ウェーブロス関数を組み込んだ RVFL モデル Wave-RVFL を提案する。
Wave-RVFLは、偏差の過料金化を防ぎ、ノイズや外れ値に対する堅牢性を示す。
実験結果から,Wave-RVFLの性能とロバスト性は,ベースラインモデルよりも優れていたことが確認された。
論文 参考訳(メタデータ) (2024-08-05T20:46:54Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - Graph Federated Learning for CIoT Devices in Smart Home Applications [23.216140264163535]
G-Fedfilt'と呼ばれるグラフフィルタリングに基づく新しいグラフ信号処理(GSP)に基づく集約ルールを提案する。
提案するアグリゲータは,グラフのトポロジに基づく情報の流れを構造化することができる。
モデルの一般化をテストする場合、FedAvgよりも2.41%$高い精度が得られる。
論文 参考訳(メタデータ) (2022-12-29T17:57:19Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Bitwidth Heterogeneous Federated Learning with Progressive Weight
Dequantization [58.31288475660333]
ビット幅の不均一なフェデレート学習(BHFL)を用いた実用的フェデレーション学習シナリオを提案する。
BHFLは、異なるビット幅のモデルパラメータの集約が深刻な性能劣化をもたらすという、新しい課題をもたらす。
本稿では,低ビット幅の重みをより高ビット幅の重みに段階的に再構成し,最終的に完全精度の重みに再構成する,トレーニング可能な重み決定器を中央サーバに備えたProWDフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-23T12:07:02Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Bayesian Federated Learning over Wireless Networks [87.37301441859925]
フェデレーションラーニングは、ローカルデバイスに保存された異種データセットを使用したプライバシー保護と分散トレーニング方法です。
本稿では、スケーラブルBFL (SBFL) と呼ばれる効率的な修正BFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-31T07:32:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。