論文の概要: Data Separability for Neural Network Classifiers and the Development of
a Separability Index
- arxiv url: http://arxiv.org/abs/2005.13120v2
- Date: Fri, 29 May 2020 03:23:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 08:11:36.738973
- Title: Data Separability for Neural Network Classifiers and the Development of
a Separability Index
- Title(参考訳): ニューラルネットワーク分類器のデータ分離可能性と分離性指標の開発
- Authors: Shuyue Guan, Murray Loew, Hanseok Ko
- Abstract要約: データセットの分離性を測定するために、DSI(Distance-based Separability Index)を作成しました。
DSIは、異なるクラスに属するデータに類似した分布があるかどうかを示す。
また、データサイエンス、機械学習、ディープラーニングの分野におけるDSIの応用の可能性についても論じている。
- 参考スコア(独自算出の注目度): 17.49709034278995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In machine learning, the performance of a classifier depends on both the
classifier model and the dataset. For a specific neural network classifier, the
training process varies with the training set used; some training data make
training accuracy fast converged to high values, while some data may lead to
slowly converged to lower accuracy. To quantify this phenomenon, we created the
Distance-based Separability Index (DSI), which is independent of the classifier
model, to measure the separability of datasets. In this paper, we consider the
situation where different classes of data are mixed together in the same
distribution is most difficult for classifiers to separate, and we show that
the DSI can indicate whether data belonging to different classes have similar
distributions. When comparing our proposed approach with several existing
separability/complexity measures using synthetic and real datasets, the results
show the DSI is an effective separability measure. We also discussed possible
applications of the DSI in the fields of data science, machine learning, and
deep learning.
- Abstract(参考訳): 機械学習では、分類器の性能は分類器モデルとデータセットの両方に依存する。
特定のニューラルネットワーク分類器では、トレーニングプロセスは使用するトレーニングセットによって異なり、トレーニング精度を高い値に高速に収束させるトレーニングデータと、より低い精度に緩やかに収束するデータがある。
この現象を定量化するために,分類器モデルとは独立した距離ベース分離性指標(dsi)を作成し,データセットの分離性を測定した。
本稿では,異なるクラスに属するデータが同じ分布に混在している状況を考えると,分類器が分離するのが最も困難であり,DSIが異なるクラスに属するデータに類似した分布が存在するか否かを示す。
提案手法を,合成データセットと実データを用いた既存の分離性/複雑度尺度と比較すると,DSIは有効な分離性尺度であることが示された。
また、データサイエンス、機械学習、ディープラーニングの分野におけるdsiの応用の可能性についても論じた。
関連論文リスト
- A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - On Pretraining Data Diversity for Self-Supervised Learning [57.91495006862553]
我々は、より多様なデータセットを用いたトレーニングが、固定された計算予算の下での自己教師付き学習(SSL)のパフォーマンスに与える影響について検討する。
以上の結果から,事前学習データの多様性の増大はSSL性能を向上させるが,下流データへの分布距離が最小である場合に限る。
論文 参考訳(メタデータ) (2024-03-20T17:59:58Z) - A classification performance evaluation measure considering data
separability [6.751026374812737]
本稿では,データ符号化率に基づく新たな分離可能性尺度を提案する。
実データセットから構築したマルチタスクシナリオにおいて,提案手法と認識精度の正の相関性を示す。
論文 参考訳(メタデータ) (2022-11-10T09:18:26Z) - Mutual Information Learned Classifiers: an Information-theoretic
Viewpoint of Training Deep Learning Classification Systems [9.660129425150926]
クロスエントロピー損失は、重度のオーバーフィッティング動作を示すモデルを見つけるのに容易である。
本稿では,既存のDNN分類器のクロスエントロピー損失最小化が,基礎となるデータ分布の条件エントロピーを本質的に学習することを証明する。
ラベルと入力の相互情報を学習することで、DNN分類器を訓練する相互情報学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-03T15:09:19Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - A Novel Intrinsic Measure of Data Separability [0.0]
機械学習では、分類器のパフォーマンスはデータセットの分離性と複雑さに依存する。
私たちは、DSI(Distance-based Separability Index)という本質的な尺度を作成します。
DSIは,データセットの分布が任意の次元に対して同一であるか否かを示す。
論文 参考訳(メタデータ) (2021-09-11T04:20:08Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Similarity Embedding Networks for Robust Human Activity Recognition [19.162857787656247]
我々は、入力センサ信号を、慎重に設計された畳み込み層とLSTM層を通して実ベクトルにマッピングする類似性埋め込みニューラルネットワークを設計する。
埋め込みネットワークは、ペアワイズな類似性損失でトレーニングされ、埋め込み実空間内の同じクラスからのサンプルのクラスタリングを奨励する。
2つの公開データセットに基づく広範囲な評価により、提案された類似性埋め込みネットワークは、HAR分類タスクにおける最先端のディープモデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2021-05-31T11:52:32Z) - Network Classifiers Based on Social Learning [71.86764107527812]
空間と時間に対して独立に訓練された分類器を結合する新しい手法を提案する。
提案したアーキテクチャは、ラベルのないデータで時間とともに予測性能を改善することができる。
この戦略は高い確率で一貫した学習をもたらすことが示され、未訓練の分類器に対して頑健な構造が得られる。
論文 参考訳(メタデータ) (2020-10-23T11:18:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。