論文の概要: Unsupervised Fuzzy eIX: Evolving Internal-eXternal Fuzzy Clustering
- arxiv url: http://arxiv.org/abs/2003.12381v1
- Date: Wed, 25 Mar 2020 16:17:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 02:30:11.119200
- Title: Unsupervised Fuzzy eIX: Evolving Internal-eXternal Fuzzy Clustering
- Title(参考訳): 教師なしファジィeix:内部外ファジィクラスタリングの進化
- Authors: Charles Aguiar, Daniel Leite
- Abstract要約: 我々は、内部eXternal Fuzzyクラスタリング法(Fuzzy eIX)と呼ばれる数値データに対する教師なし学習法を提案する。
1型および2型ファジィ推論系はファジィeIX顆粒の投影から得ることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time-varying classifiers, namely, evolving classifiers, play an important
role in a scenario in which information is available as a never-ending online
data stream. We present a new unsupervised learning method for numerical data
called evolving Internal-eXternal Fuzzy clustering method (Fuzzy eIX). We
develop the notion of double-boundary fuzzy granules and elaborate on its
implications. Type 1 and type 2 fuzzy inference systems can be obtained from
the projection of Fuzzy eIX granules. We perform the principle of the balanced
information granularity within Fuzzy eIX classifiers to achieve a higher level
of model understandability. Internal and external granules are updated from a
numerical data stream at the same time that the global granular structure of
the classifier is autonomously evolved. A synthetic nonstationary problem
called Rotation of Twin Gaussians shows the behavior of the classifier. The
Fuzzy eIX classifier could keep up with its accuracy in a scenario in which
offline-trained classifiers would clearly have their accuracy drastically
dropped.
- Abstract(参考訳): 時変分類器、すなわち進化する分類器は、情報が決して終わらないオンラインデータストリームとして利用できるシナリオにおいて重要な役割を果たす。
本稿では,内部外ファジィクラスタリング法(fuzzy eix)と呼ばれる数値データの教師なし学習法を提案する。
二重境界ファジィ顆粒の概念を開発し,その意味を詳述する。
1型および2型ファジィ推論システムはファジィeIX顆粒の投影から得ることができる。
ファジィeIX分類器内のバランス情報粒度を原理として,より高レベルなモデル理解性を実現する。
内部および外部の顆粒は、分類器のグローバルな粒度構造が自律的に進化すると同時に、数値データストリームから更新される。
双対ガウスの回転と呼ばれる合成非定常問題は、分類器の挙動を示している。
ファジィeix分類器は、オフラインで訓練された分類器が精度を劇的に低下させるシナリオにおいて、その精度に追随する可能性がある。
関連論文リスト
- The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - Mutual Information Learned Classifiers: an Information-theoretic
Viewpoint of Training Deep Learning Classification Systems [9.660129425150926]
クロスエントロピー損失は、重度のオーバーフィッティング動作を示すモデルを見つけるのに容易である。
本稿では,既存のDNN分類器のクロスエントロピー損失最小化が,基礎となるデータ分布の条件エントロピーを本質的に学習することを証明する。
ラベルと入力の相互情報を学習することで、DNN分類器を訓練する相互情報学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-03T15:09:19Z) - Mutual Information Learned Classifiers: an Information-theoretic
Viewpoint of Training Deep Learning Classification Systems [9.660129425150926]
既存のクロスエントロピー損失最小化問題は,基礎となるデータ分布のラベル条件エントロピーを本質的に学習することを示す。
ラベルと入力の相互情報を学習することで、ディープニューラルネットワーク分類器を訓練する相互情報学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-21T01:06:30Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Risk Bounds for Over-parameterized Maximum Margin Classification on
Sub-Gaussian Mixtures [100.55816326422773]
線形分類問題に対する最大マージン分類器の現象について検討する。
その結果、良性的なオーバーフィットが起きる条件を正確に特徴づけます。
論文 参考訳(メタデータ) (2021-04-28T08:25:16Z) - Highly Efficient Representation and Active Learning Framework for
Imbalanced Data and its Application to COVID-19 X-Ray Classification [0.7829352305480284]
胸部X線を分類するためのデータ効率の高い分類および能動的学習フレームワークを提案する。
これは(1)畳み込みニューラルネットワークの教師なし表現学習と(2)ガウス過程法に基づいている。
利用可能なラベルのトレーニングから正確性に到達するには、ラベル付きデータの10%の$simしか必要ありません。
論文 参考訳(メタデータ) (2021-02-25T02:48:59Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z) - Comparison of Evolving Granular Classifiers applied to Anomaly Detection
for Predictive Maintenance in Computing Centers [2.617178882286492]
CERN(European Organization for Nuclear Research, 欧州原子力研究機構)の物理実験を支援する世界規模のコンピューティンググリッドについて、ログベースのコンピューティングセンターの予測保守が主な関心事である。
目標は、連続的に変更可能なグリッド環境から重要な情報を取得し、分類モデルを構築することである。
我々は,4クラスのオンライン異常分類問題を定式化し,ランドマーク間の時間ウィンドウと2つの粒度計算手法,すなわちFazy-set-based evolution Modeling (FBeM)とGranular Neural Network (eGNN)を併用した。
分類の結果は、特定の時間間隔に優先順位を付けることができるため、予測的保守にとって最も重要である。
論文 参考訳(メタデータ) (2020-04-08T14:08:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。