論文の概要: Interpretable ML for Imbalanced Data
- arxiv url: http://arxiv.org/abs/2212.07743v1
- Date: Thu, 15 Dec 2022 11:50:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 17:27:01.206650
- Title: Interpretable ML for Imbalanced Data
- Title(参考訳): 不均衡データに対する解釈型ML
- Authors: Damien A. Dablain, Colin Bellinger, Bartosz Krawczyk, David W. Aha,
Nitesh V. Chawla
- Abstract要約: 不均衡なデータは、クラス間の関係が歪んで不明瞭である可能性があるため、ディープ・ネットワークのブラックボックスの性質を合成する。
不均衡なデータの複雑性を調査する既存の手法は、バイナリ分類、浅い学習モデル、低次元データを対象としている。
本稿では,ディープラーニングモデルの利用者がクラスプロトタイプ,サブコンセプト,アウトリアインスタンスを識別し,視覚化し,理解するために利用できる一連の手法を提案する。
- 参考スコア(独自算出の注目度): 22.355966235617014
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models are being increasingly applied to imbalanced data in
high stakes fields such as medicine, autonomous driving, and intelligence
analysis. Imbalanced data compounds the black-box nature of deep networks
because the relationships between classes may be highly skewed and unclear.
This can reduce trust by model users and hamper the progress of developers of
imbalanced learning algorithms. Existing methods that investigate imbalanced
data complexity are geared toward binary classification, shallow learning
models and low dimensional data. In addition, current eXplainable Artificial
Intelligence (XAI) techniques mainly focus on converting opaque deep learning
models into simpler models (e.g., decision trees) or mapping predictions for
specific instances to inputs, instead of examining global data properties and
complexities. Therefore, there is a need for a framework that is tailored to
modern deep networks, that incorporates large, high dimensional, multi-class
datasets, and uncovers data complexities commonly found in imbalanced data
(e.g., class overlap, sub-concepts, and outlier instances). We propose a set of
techniques that can be used by both deep learning model users to identify,
visualize and understand class prototypes, sub-concepts and outlier instances;
and by imbalanced learning algorithm developers to detect features and class
exemplars that are key to model performance. Our framework also identifies
instances that reside on the border of class decision boundaries, which can
carry highly discriminative information. Unlike many existing XAI techniques
which map model decisions to gray-scale pixel locations, we use saliency
through back-propagation to identify and aggregate image color bands across
entire classes. Our framework is publicly available at
\url{https://github.com/dd1github/XAI_for_Imbalanced_Learning}
- Abstract(参考訳): 深層学習モデルは、医療、自律運転、インテリジェンス分析などの高利害な分野における不均衡なデータにますます応用されている。
不均衡データ化合物 クラス間の関係が非常に歪んで不明瞭なため、ディープネットワークのブラックボックスの性質。
これにより、モデルユーザによる信頼の低減と、不均衡な学習アルゴリズムの開発進捗の阻害が可能になる。
不均衡データ複雑性を調査する既存の手法は、バイナリ分類、浅い学習モデル、低次元データを対象としている。
さらに、現在のeXplainable Artificial Intelligence (XAI)技術は主に、グローバルなデータの性質や複雑さを調べる代わりに、不透明なディープラーニングモデルをより単純なモデル(例えば、決定木)に変換することや、特定のインスタンスの予測を入力にマッピングすることに焦点を当てている。
したがって、大規模な高次元のマルチクラスデータセットを組み込んで、不均衡なデータ(例えば、クラスオーバーラップ、サブコンセプション、外れ値インスタンス)でよく見られるデータの複雑さを明らかにする、現代のディープネットワークに合わせたフレームワークが必要である。
本研究では,ディープラーニングモデル利用者がクラスプロトタイプ,サブコンセプト,アウトレーヤインスタンスを識別,視覚化,理解するために,また,不均衡な学習アルゴリズムを用いて,モデル性能の鍵となる機能やクラス例を検出する手法を提案する。
我々のフレームワークはまた、高い差別的な情報を運ぶことができるクラス決定境界の領域に存在するインスタンスを識別する。
モデル決定をグレースケールのピクセル位置にマッピングする既存のXAI技術とは異なり、バックプロパゲーションにより、クラス全体の画像カラーバンドを特定し、集約する。
私たちのフレームワークは \url{https://github.com/dd1github/xai_for_imbalanced_learning} で公開されている。
関連論文リスト
- Class Machine Unlearning for Complex Data via Concepts Inference and Data Poisoning [15.364125432212711]
現在のAI時代では、ユーザーはプライバシー上の懸念から、AI企業にトレーニングデータセットからデータを削除するよう要求することができる。
機械学習は、モデルオーナーが要求されたトレーニングデータやクラスを削除することができ、モデルのパフォーマンスにほとんど影響を与えない新しい技術である。
本稿では、画像の特徴やテキストデータのトークンではなく、概念の定義を適用して、未学習クラスの意味情報を表現する。
論文 参考訳(メタデータ) (2024-05-24T15:59:17Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Homological Convolutional Neural Networks [4.615338063719135]
本稿では,トポロジ的に制約されたネットワーク表現を通じて,データ構造構造を利用した新しいディープラーニングアーキテクチャを提案する。
5つの古典的な機械学習モデルと3つのディープラーニングモデルに対して、18のベンチマークデータセットでモデルをテストします。
論文 参考訳(メタデータ) (2023-08-26T08:48:51Z) - Interpreting Black-box Machine Learning Models for High Dimensional
Datasets [40.09157165704895]
我々は、高次元データセット上でブラックボックスモデルをトレーニングし、その分類が行われる埋め込みを学習する。
次に、トップk特徴空間上の解釈可能な代理モデルを用いてブラックボックスモデルの挙動を近似する。
我々のアプローチは、異なるデータセットでテストした場合、TabNetやXGboostのような最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-08-29T07:36:17Z) - A Survey of Learning on Small Data: Generalization, Optimization, and
Challenge [101.27154181792567]
ビッグデータの一般化能力を近似した小さなデータについて学ぶことは、AIの究極の目的の1つである。
この調査はPACフレームワークの下でのアクティブサンプリング理論に従い、小さなデータにおける学習の一般化誤差とラベルの複雑さを分析した。
効率的な小さなデータ表現の恩恵を受けるかもしれない複数のデータアプリケーションについて調査する。
論文 参考訳(メタデータ) (2022-07-29T02:34:19Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - Semi-supervised Deep Learning for Image Classification with Distribution
Mismatch: A Survey [1.5469452301122175]
ディープラーニングモデルは、予測モデルをトレーニングするためにラベル付き観測の豊富な部分に依存します。
ラベル付きデータ観測を収集することは高価であり、ディープラーニングモデルの使用は理想的ではない。
多くの状況では、異なる非競合データソースが利用可能である。
これにより、ラベル付きデータセットと非ラベル付きデータセットの間にかなりの分散ミスマッチが発生するリスクが生じる。
論文 参考訳(メタデータ) (2022-03-01T02:46:00Z) - Improving Contrastive Learning on Imbalanced Seed Data via Open-World
Sampling [96.8742582581744]
我々は、Model-Aware K-center (MAK)と呼ばれるオープンワールドなラベルなしデータサンプリングフレームワークを提案する。
MAKは、尾性、近接性、多様性の3つの単純な原則に従う。
我々はMAKが学習した機能の全体的な表現品質とクラスバランス性の両方を継続的に改善できることを実証した。
論文 参考訳(メタデータ) (2021-11-01T15:09:41Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z) - Visualisation and knowledge discovery from interpretable models [0.0]
欠落した値も扱える本質的な解釈可能なモデルをいくつか紹介する。
合成データセットと実世界のデータセットでアルゴリズムを実証した。
論文 参考訳(メタデータ) (2020-05-07T17:37:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。