論文の概要: Intuitionistic Fuzzy Broad Learning System: Enhancing Robustness Against
Noise and Outliers
- arxiv url: http://arxiv.org/abs/2307.08713v1
- Date: Sat, 15 Jul 2023 21:40:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-19 17:58:04.237654
- Title: Intuitionistic Fuzzy Broad Learning System: Enhancing Robustness Against
Noise and Outliers
- Title(参考訳): 直観的ファジィ・ブロードラーニングシステム:騒音と外乱に対するロバスト性を高める
- Authors: M. Sajid, A.K. Malik, M. Tanveer
- Abstract要約: 従来の広範学習システム(BLS)は、すべてのサンプルを同等に重要なものとして扱うため、ノイズや外れ値を持つ実世界のデータセットでは、ロバスト性が低下する。
本稿では,各トレーニングポイントにファジィメンバシップ値を割り当てるファジィBLSモデルを提案する。
提案するF-BLSモデルとIF-BLSモデルの性能評価を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the realm of data classification, broad learning system (BLS) has proven
to be a potent tool that utilizes a layer-by-layer feed-forward neural network.
It consists of feature learning and enhancement segments, working together to
extract intricate features from input data. The traditional BLS treats all
samples as equally significant, which makes it less robust and less effective
for real-world datasets with noises and outliers. To address this issue, we
propose the fuzzy BLS (F-BLS) model, which assigns a fuzzy membership value to
each training point to reduce the influence of noises and outliers. In
assigning the membership value, the F-BLS model solely considers the distance
from samples to the class center in the original feature space without
incorporating the extent of non-belongingness to a class. We further propose a
novel BLS based on intuitionistic fuzzy theory (IF-BLS). The proposed IF-BLS
utilizes intuitionistic fuzzy numbers based on fuzzy membership and
non-membership values to assign scores to training points in the
high-dimensional feature space by using a kernel function. We evaluate the
performance of proposed F-BLS and IF-BLS models on 44 UCI benchmark datasets
across diverse domains. Furthermore, Gaussian noise is added to some UCI
datasets to assess the robustness of the proposed F-BLS and IF-BLS models.
Experimental results demonstrate superior generalization performance of the
proposed F-BLS and IF-BLS models compared to baseline models, both with and
without Gaussian noise. Additionally, we implement the proposed F-BLS and
IF-BLS models on the Alzheimers Disease Neuroimaging Initiative (ADNI) dataset,
and promising results showcase the models effectiveness in real-world
applications. The proposed methods offer a promising solution to enhance the
BLS frameworks ability to handle noise and outliers.
- Abstract(参考訳): データ分類の分野では、層間フィードフォワードニューラルネットワークを利用する強力なツールとして広範学習システム(BLS)が証明されている。
特徴学習と拡張セグメントで構成され、入力データから複雑な特徴を抽出するために協力する。
従来のBLSでは、すべてのサンプルを同等に重要なものとして扱うため、ノイズや外れ値のある実世界のデータセットでは、より堅牢で、より効果的ではない。
この問題に対処するために,各トレーニングポイントにファジィメンバシップ値を割り当てるファジィBLS(F-BLS)モデルを提案する。
メンバシップ値を割り当てる際、F-BLSモデルは、サンプルからクラス中心までの距離のみを元の特徴空間のクラスに含めることなく考慮する。
さらに直観的ファジィ理論(IF-BLS)に基づく新しいBLSを提案する。
提案したIF-BLSはファジィメンバシップと非メンバシップ値に基づく直観的ファジィ数を用いて,カーネル関数を用いて高次元特徴空間のトレーニングポイントにスコアを割り当てる。
提案するf-blsおよびif-blsモデルの性能を,様々な領域にまたがる44のuciベンチマークデータセットで評価した。
さらに、提案したF-BLSモデルとIF-BLSモデルの堅牢性を評価するために、いくつかのUCIデータセットにガウスノイズが付加される。
提案したF-BLSモデルとIF-BLSモデルの一般化性能は,ガウス雑音と非ガウス雑音によるベースラインモデルと比較して優れていた。
さらに、アルツハイマー病神経画像イニシアチブ(ADNI)データセット上に提案したF-BLSモデルとIF-BLSモデルを実装し、実世界のアプリケーションでモデルの有効性を示す。
提案手法は,ノイズやアウトレイラを処理するBLSフレームワークを強化するための,有望なソリューションを提供する。
関連論文リスト
- FaFCNN: A General Disease Classification Framework Based on Feature
Fusion Neural Networks [4.097623533226476]
本稿では,機能認識型統合相関ニューラルネットワーク (FaFCNN) を提案する。
実験結果から,事前学習による強化特徴を用いた訓練により,無作為森林法よりも高い性能向上が得られた。
論文 参考訳(メタデータ) (2023-07-24T04:23:08Z) - Graph Embedded Intuitionistic Fuzzy Random Vector Functional Link Neural
Network for Class Imbalance Learning [4.069144210024564]
クラス不均衡学習(GE-IFRVFL-CIL)モデルのためのグラフ埋め込み直観的ファジィRVFLを提案する。
提案したGE-IFRVFL-CILモデルは、クラス不均衡問題に対処し、ノイズとアウトレーヤの有害な効果を軽減し、データセットの固有の幾何学的構造を保存するための有望な解決策を提供する。
論文 参考訳(メタデータ) (2023-07-15T20:45:45Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - L2B: Learning to Bootstrap Robust Models for Combating Label Noise [52.02335367411447]
本稿では,Learning to Bootstrap (L2B) という,シンプルで効果的な手法を提案する。
モデルは、誤った擬似ラベルの影響を受けずに、自身の予測を使ってブートストラップを行うことができる。
これは、実際の観測されたラベルと生成されたラベル間の重みを動的に調整し、メタラーニングを通じて異なるサンプル間の重みを動的に調整することで実現される。
論文 参考訳(メタデータ) (2022-02-09T05:57:08Z) - A Broad Ensemble Learning System for Drifting Stream Classification [3.087840197124265]
本研究では,概念ドリフトを用いたストリーム分類のためのBroad Ensemble Learning System (BELS)を提案する。
BELSは、クラス内の最高のモデルの精度を大幅に向上させる新しい更新方法を使用している。
提案手法は,BLSに比べて平均44%改善し,他の競争基準に比べて29%改善した。
論文 参考訳(メタデータ) (2021-10-07T15:01:33Z) - Trash to Treasure: Harvesting OOD Data with Cross-Modal Matching for
Open-Set Semi-Supervised Learning [101.28281124670647]
オープンセット半教師付き学習(Open-set SSL)では、ラベルなしデータにOOD(Out-of-distribution)サンプルを含む、難しいが実用的なシナリオを調査する。
我々は、OODデータの存在を効果的に活用し、特徴学習を増強する新しいトレーニングメカニズムを提案する。
我々のアプローチは、オープンセットSSLのパフォーマンスを大幅に向上させ、最先端技術よりも大きなマージンで性能を向上します。
論文 参考訳(メタデータ) (2021-08-12T09:14:44Z) - Boosting the Generalization Capability in Cross-Domain Few-shot Learning
via Noise-enhanced Supervised Autoencoder [23.860842627883187]
我々は、新しいノイズ強調型教師付きオートエンコーダ(NSAE)を用いて、特徴分布のより広範なバリエーションを捉えるようモデルに教える。
NSAEは入力を共同で再構築し、入力のラベルと再構成されたペアを予測することによってモデルを訓練する。
また、NSAE構造を利用して、より適応性を高め、対象領域の分類性能を向上させる2段階の微調整手順を提案する。
論文 参考訳(メタデータ) (2021-08-11T04:45:56Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Bridging the Gap Between Clean Data Training and Real-World Inference
for Spoken Language Understanding [76.89426311082927]
既存のモデルはクリーンデータに基づいてトレーニングされ、クリーンデータトレーニングと現実世界の推論の間にtextitgapが発生する。
本稿では,良質なサンプルと低品質のサンプルの両方が類似ベクトル空間に埋め込まれた領域適応法を提案する。
広く使用されているデータセット、スニップス、および大規模な社内データセット(1000万のトレーニング例)に関する実験では、この方法は実世界の(騒々しい)コーパスのベースラインモデルを上回るだけでなく、堅牢性、すなわち、騒々しい環境下で高品質の結果を生み出すことを実証しています。
論文 参考訳(メタデータ) (2021-04-13T17:54:33Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z) - Adaptive Name Entity Recognition under Highly Unbalanced Data [5.575448433529451]
我々は,2方向LSTM (BI-LSTM) 上に積み重ねた条件付きランダムフィールド (CRF) 層からなるニューラルアーキテクチャについて実験を行った。
WeakクラスとStrongクラスを2つの異なるセットに分割し、各セットのパフォーマンスを最適化するために2つのBi-LSTM-CRFモデルを適切に設計するアドオン分類モデルを提案する。
論文 参考訳(メタデータ) (2020-03-10T06:56:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。