論文の概要: Intuitionistic Fuzzy Broad Learning System: Enhancing Robustness Against
Noise and Outliers
- arxiv url: http://arxiv.org/abs/2307.08713v1
- Date: Sat, 15 Jul 2023 21:40:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-19 17:58:04.237654
- Title: Intuitionistic Fuzzy Broad Learning System: Enhancing Robustness Against
Noise and Outliers
- Title(参考訳): 直観的ファジィ・ブロードラーニングシステム:騒音と外乱に対するロバスト性を高める
- Authors: M. Sajid, A.K. Malik, M. Tanveer
- Abstract要約: 従来の広範学習システム(BLS)は、すべてのサンプルを同等に重要なものとして扱うため、ノイズや外れ値を持つ実世界のデータセットでは、ロバスト性が低下する。
本稿では,各トレーニングポイントにファジィメンバシップ値を割り当てるファジィBLSモデルを提案する。
提案するF-BLSモデルとIF-BLSモデルの性能評価を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the realm of data classification, broad learning system (BLS) has proven
to be a potent tool that utilizes a layer-by-layer feed-forward neural network.
It consists of feature learning and enhancement segments, working together to
extract intricate features from input data. The traditional BLS treats all
samples as equally significant, which makes it less robust and less effective
for real-world datasets with noises and outliers. To address this issue, we
propose the fuzzy BLS (F-BLS) model, which assigns a fuzzy membership value to
each training point to reduce the influence of noises and outliers. In
assigning the membership value, the F-BLS model solely considers the distance
from samples to the class center in the original feature space without
incorporating the extent of non-belongingness to a class. We further propose a
novel BLS based on intuitionistic fuzzy theory (IF-BLS). The proposed IF-BLS
utilizes intuitionistic fuzzy numbers based on fuzzy membership and
non-membership values to assign scores to training points in the
high-dimensional feature space by using a kernel function. We evaluate the
performance of proposed F-BLS and IF-BLS models on 44 UCI benchmark datasets
across diverse domains. Furthermore, Gaussian noise is added to some UCI
datasets to assess the robustness of the proposed F-BLS and IF-BLS models.
Experimental results demonstrate superior generalization performance of the
proposed F-BLS and IF-BLS models compared to baseline models, both with and
without Gaussian noise. Additionally, we implement the proposed F-BLS and
IF-BLS models on the Alzheimers Disease Neuroimaging Initiative (ADNI) dataset,
and promising results showcase the models effectiveness in real-world
applications. The proposed methods offer a promising solution to enhance the
BLS frameworks ability to handle noise and outliers.
- Abstract(参考訳): データ分類の分野では、層間フィードフォワードニューラルネットワークを利用する強力なツールとして広範学習システム(BLS)が証明されている。
特徴学習と拡張セグメントで構成され、入力データから複雑な特徴を抽出するために協力する。
従来のBLSでは、すべてのサンプルを同等に重要なものとして扱うため、ノイズや外れ値のある実世界のデータセットでは、より堅牢で、より効果的ではない。
この問題に対処するために,各トレーニングポイントにファジィメンバシップ値を割り当てるファジィBLS(F-BLS)モデルを提案する。
メンバシップ値を割り当てる際、F-BLSモデルは、サンプルからクラス中心までの距離のみを元の特徴空間のクラスに含めることなく考慮する。
さらに直観的ファジィ理論(IF-BLS)に基づく新しいBLSを提案する。
提案したIF-BLSはファジィメンバシップと非メンバシップ値に基づく直観的ファジィ数を用いて,カーネル関数を用いて高次元特徴空間のトレーニングポイントにスコアを割り当てる。
提案するf-blsおよびif-blsモデルの性能を,様々な領域にまたがる44のuciベンチマークデータセットで評価した。
さらに、提案したF-BLSモデルとIF-BLSモデルの堅牢性を評価するために、いくつかのUCIデータセットにガウスノイズが付加される。
提案したF-BLSモデルとIF-BLSモデルの一般化性能は,ガウス雑音と非ガウス雑音によるベースラインモデルと比較して優れていた。
さらに、アルツハイマー病神経画像イニシアチブ(ADNI)データセット上に提案したF-BLSモデルとIF-BLSモデルを実装し、実世界のアプリケーションでモデルの有効性を示す。
提案手法は,ノイズやアウトレイラを処理するBLSフレームワークを強化するための,有望なソリューションを提供する。
関連論文リスト
- High-Performance Few-Shot Segmentation with Foundation Models: An Empirical Study [64.06777376676513]
基礎モデルに基づく数ショットセグメンテーション(FSS)フレームワークを開発した。
具体的には、基礎モデルから暗黙的な知識を抽出し、粗い対応を構築するための簡単なアプローチを提案する。
2つの広く使われているデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-09-10T08:04:11Z) - R-SFLLM: Jamming Resilient Framework for Split Federated Learning with Large Language Models [83.77114091471822]
Split Federated Learning (SFL)は、分散機械学習(ML)における計算効率のパラダイムである。
SFLの課題は、特に無線チャネル上に展開する場合、送信されたモデルパラメータが相手のジャミングに感受性を持つことである。
これは、言語理解に不可欠である大規模言語モデル(LLM)における単語埋め込みパラメータに対して特に顕著である。
無線ネットワーク上でのLLM(R-SFLLM)を用いたレジリエンスSFLのための物理層フレームワークを開発した。
論文 参考訳(メタデータ) (2024-07-16T12:21:29Z) - Ensemble Deep Random Vector Functional Link Neural Network Based on Fuzzy Inference System [0.6437284704257459]
アンサンブルディープランダムベクトル汎関数リンク(edRVFL)ニューラルネットワークは、従来の人工ニューラルネットワークの限界に対処する能力を示した。
本稿では,ファジィ推論システム(edRVFL-FIS)に基づく新しいEDRVFLを提案する。
論文 参考訳(メタデータ) (2024-06-02T17:01:44Z) - FedSI: Federated Subnetwork Inference for Efficient Uncertainty Quantification [31.11796234526461]
FedSIは、ベイズDNNベースのサブネットワーク推論PFLフレームワークである。
クライアント固有のサブネットワーク推論機構を実装し、大きなばらつきでネットワークパラメータを選択し、残りを決定論的に修正する。
体系的な不確実性を最大限に保ちながら、高速でスケーラブルな推論を実現する。
論文 参考訳(メタデータ) (2024-04-24T05:24:08Z) - Stragglers-Aware Low-Latency Synchronous Federated Learning via Layer-Wise Model Updates [71.81037644563217]
同期フェデレーションラーニング(FL)は、協調エッジラーニングの一般的なパラダイムである。
一部のデバイスは計算資源が限られており、様々な可用性があるため、FLレイテンシはストラグラーに非常に敏感である。
本稿では,NNの最適化手法をバックプロパゲーションにより活用し,グローバルモデルを階層的に更新するストラグラー対応層対応学習(SALF)を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:14:36Z) - Latent Semantic Consensus For Deterministic Geometric Model Fitting [109.44565542031384]
我々はLSC(Latent Semantic Consensus)と呼ばれる効果的な方法を提案する。
LSCは、モデルフィッティング問題をデータポイントとモデル仮説に基づく2つの潜在意味空間に定式化する。
LSCは、一般的な多構造モデルフィッティングのために、数ミリ秒以内で一貫した、信頼性の高いソリューションを提供することができる。
論文 参考訳(メタデータ) (2024-03-11T05:35:38Z) - Learning under Singularity: An Information Criterion improving WBIC and
sBIC [1.0878040851637998]
我々は、Singularity(LS)の下での学習と呼ばれる新しい情報基準(IC)を導入する。
LSは規則性制約なしで有効であり、安定性を示す。
このアプローチは、規則性制約のないモデル選択に対して、柔軟で堅牢な方法を提供する。
論文 参考訳(メタデータ) (2024-02-20T07:09:39Z) - Physics Inspired Hybrid Attention for SAR Target Recognition [61.01086031364307]
本稿では,物理にヒントを得たハイブリットアテンション(PIHA)機構と,この問題に対処するためのOFA評価プロトコルを提案する。
PIHAは、物理的情報の高レベルなセマンティクスを活用して、ターゲットの局所的なセマンティクスを認識した特徴群を活性化し、誘導する。
提案手法は,ASCパラメータが同じ12のテストシナリオにおいて,他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-09-27T14:39:41Z) - FaFCNN: A General Disease Classification Framework Based on Feature
Fusion Neural Networks [4.097623533226476]
本稿では,機能認識型統合相関ニューラルネットワーク (FaFCNN) を提案する。
実験結果から,事前学習による強化特徴を用いた訓練により,無作為森林法よりも高い性能向上が得られた。
論文 参考訳(メタデータ) (2023-07-24T04:23:08Z) - Bridging the Gap Between Clean Data Training and Real-World Inference
for Spoken Language Understanding [76.89426311082927]
既存のモデルはクリーンデータに基づいてトレーニングされ、クリーンデータトレーニングと現実世界の推論の間にtextitgapが発生する。
本稿では,良質なサンプルと低品質のサンプルの両方が類似ベクトル空間に埋め込まれた領域適応法を提案する。
広く使用されているデータセット、スニップス、および大規模な社内データセット(1000万のトレーニング例)に関する実験では、この方法は実世界の(騒々しい)コーパスのベースラインモデルを上回るだけでなく、堅牢性、すなわち、騒々しい環境下で高品質の結果を生み出すことを実証しています。
論文 参考訳(メタデータ) (2021-04-13T17:54:33Z) - Adaptive Name Entity Recognition under Highly Unbalanced Data [5.575448433529451]
我々は,2方向LSTM (BI-LSTM) 上に積み重ねた条件付きランダムフィールド (CRF) 層からなるニューラルアーキテクチャについて実験を行った。
WeakクラスとStrongクラスを2つの異なるセットに分割し、各セットのパフォーマンスを最適化するために2つのBi-LSTM-CRFモデルを適切に設計するアドオン分類モデルを提案する。
論文 参考訳(メタデータ) (2020-03-10T06:56:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。