論文の概要: Silhouettes and quasi residual plots for neural nets and tree-based
classifiers
- arxiv url: http://arxiv.org/abs/2106.08814v1
- Date: Wed, 16 Jun 2021 14:26:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-17 17:38:18.204024
- Title: Silhouettes and quasi residual plots for neural nets and tree-based
classifiers
- Title(参考訳): ニューラルネットワークと木に基づく分類器のシルエットと準残留プロット
- Authors: Jakob Raymaekers and Peter J. Rousseeuw
- Abstract要約: ここでは、トレーニングデータとテストデータの両方において、分類されたケースを視覚化する、別の目標を追求します。
重要な側面は、あるケースが与えられたクラス(ラベル)に分類されたかどうか、または、分類器がそれを別のクラスに割り当てたいかどうかである。
グラフィカルディスプレイは、画像、混合機能、ツイートを含むベンチマークデータセットで図示され、解釈される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classification by neural nets and by tree-based methods are powerful tools of
machine learning. There exist interesting visualizations of the inner workings
of these and other classifiers. Here we pursue a different goal, which is to
visualize the cases being classified, either in training data or in test data.
An important aspect is whether a case has been classified to its given class
(label) or whether the classifier wants to assign it to different class. This
is reflected in the (conditional and posterior) probability of the alternative
class (PAC). A high PAC indicates label bias, i.e. the possibility that the
case was mislabeled. The PAC is used to construct a silhouette plot which is
similar in spirit to the silhouette plot for cluster analysis (Rousseeuw,
1987). The average silhouette width can be used to compare different
classifications of the same dataset. We will also draw quasi residual plots of
the PAC versus a data feature, which may lead to more insight in the data. One
of these data features is how far each case lies from its given class. The
graphical displays are illustrated and interpreted on benchmark data sets
containing images, mixed features, and tweets.
- Abstract(参考訳): ニューラルネットワークとツリーベースの手法による分類は、機械学習の強力なツールである。
これらおよび他の分類器の内部動作の興味深い視覚化が存在する。
ここでは、トレーニングデータとテストデータの両方において、分類されたケースを視覚化する、別の目標を追求します。
重要な側面は、あるケースが与えられたクラス(ラベル)に分類されたかどうか、あるいは分類器が別のクラスに割り当てたいかどうかである。
これは代替クラス(PAC)の(条件と後方の)確率に反映される。
高いPACはラベルバイアス、すなわちラベルバイアスを示す。
その事件が誤記された可能性。
PACは、クラスター分析のためのシルエットプロットと精神的に類似したシルエットプロットを構築するために使用される(Rousseeuw, 1987)。
平均シルエット幅は、同じデータセットの異なる分類を比較するために使用できる。
また、pacの擬似的な残差プロットをデータ機能に対して描画することで、データに対するさらなる洞察を得ることができます。
これらのデータ機能の1つは、各ケースが与えられたクラスからどの程度離れているかである。
グラフィカルディスプレイは、画像、混合機能、ツイートを含むベンチマークデータセットで図示され、解釈される。
関連論文リスト
- DatasetEquity: Are All Samples Created Equal? In The Quest For Equity
Within Datasets [4.833815605196965]
本稿では,機械学習におけるデータ不均衡に対処する新しい手法を提案する。
深い知覚埋め込みとクラスタリングを用いて、画像の外観に基づいてサンプル確率を計算する。
次に、これらの可能性を使って、提案された$bf Generalized Focal Loss$関数で、トレーニング中にサンプルを異なる重さで測定する。
論文 参考訳(メタデータ) (2023-08-19T02:11:49Z) - Pretraining Respiratory Sound Representations using Metadata and
Contrastive Learning [1.827510863075184]
教師付きコントラスト学習(Supervised contrastive learning)は、同じクラスラベルを共有するサンプルに類似した表現を学習するパラダイムである。
2つの異なるデータセットにおいて,呼吸異常の分類において,クロスエントロピーよりも優れていることを示す。
この研究は、教師付きコントラスト設定で複数のメタデータソースを使用する可能性を示唆している。
論文 参考訳(メタデータ) (2022-10-27T12:59:00Z) - Estimating Structural Disparities for Face Models [54.062512989859265]
機械学習では、異なるサブ人口間でのモデルの性能や結果の差を測定することで、しばしば異質度の測定が定義される。
本研究では、人間の顔に訓練されたコンピュータビジョンモデルや、顔属性予測や影響推定などのタスクについて、そのような分析を行う。
論文 参考訳(メタデータ) (2022-04-13T05:30:53Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - ClassSPLOM -- A Scatterplot Matrix to Visualize Separation of Multiclass
Multidimensional Data [8.89134799076718]
多次元データのマルチクラス分類において、ユーザは、目に見えないデータのラベルを予測するために、クラスのモデルを構築したい。
モデルは、データに基づいてトレーニングされ、その品質を評価するために、既知のラベルで見えないデータでテストされる。
結果は混乱行列として可視化され,データラベルが正しく予測されたか,他のクラスと混同されたかを示す。
論文 参考訳(メタデータ) (2022-01-30T14:09:19Z) - Improving Contrastive Learning on Imbalanced Seed Data via Open-World
Sampling [96.8742582581744]
我々は、Model-Aware K-center (MAK)と呼ばれるオープンワールドなラベルなしデータサンプリングフレームワークを提案する。
MAKは、尾性、近接性、多様性の3つの単純な原則に従う。
我々はMAKが学習した機能の全体的な表現品質とクラスバランス性の両方を継続的に改善できることを実証した。
論文 参考訳(メタデータ) (2021-11-01T15:09:41Z) - CvS: Classification via Segmentation For Small Datasets [52.821178654631254]
本稿では,分類ラベルをセグメントマップの予測から導出する小型データセットのコスト効率の高い分類器であるCvSを提案する。
我々は,CvSが従来の手法よりもはるかに高い分類結果が得られることを示す多種多様な問題に対して,本フレームワークの有効性を評価する。
論文 参考訳(メタデータ) (2021-10-29T18:41:15Z) - Class maps for visualizing classification results [0.0]
分類法は、まず与えられたクラス(ラベル)でオブジェクトのトレーニングセットを処理する。
トレーニングデータやテストデータ上で得られた予測方法を実行すると、オブジェクトが与えられたラベルとは異なるクラスに横になっていると予測されることがある。
提案されたクラスマップは、オブジェクトが代替クラスに属する確率、それが与えられたクラスの他のオブジェクトからどれくらい離れているか、そしてあるオブジェクトがすべてのクラスから遠く離れているかどうかを反映している。
論文 参考訳(メタデータ) (2020-07-28T21:27:15Z) - A Bayes-Optimal View on Adversarial Examples [9.51828574518325]
ベイズ最適分類の観点から, 対立例を考察する。
これらの「金の標準」最適分類器が堅牢である場合でも、同じデータセットでトレーニングされたCNNは、常に脆弱な分類器を学習する。
論文 参考訳(メタデータ) (2020-02-20T16:43:47Z) - Multi-Class Classification from Noisy-Similarity-Labeled Data [98.13491369929798]
雑音に類似したラベル付きデータのみから学習する方法を提案する。
ノイズ遷移行列を用いて、クリーンデータとノイズデータの間にクラス後確率をブリッジする。
雑音のないクラスラベルをインスタンスに割り当てる新しい学習システムを構築した。
論文 参考訳(メタデータ) (2020-02-16T05:10:21Z) - Learning with Out-of-Distribution Data for Audio Classification [60.48251022280506]
我々は,OODインスタンスを破棄するよりも,特定のOODインスタンスを検出・復号化することで,学習に肯定的な影響を及ぼすことを示す。
提案手法は,畳み込みニューラルネットワークの性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-02-11T21:08:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。