論文の概要: VisCUIT: Visual Auditor for Bias in CNN Image Classifier
- arxiv url: http://arxiv.org/abs/2204.05899v1
- Date: Tue, 12 Apr 2022 15:51:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-13 15:59:30.933259
- Title: VisCUIT: Visual Auditor for Bias in CNN Image Classifier
- Title(参考訳): VisCUIT: CNN画像分類器におけるバイアスの視覚的監査
- Authors: Seongmin Lee, Zijie J. Wang, Judy Hoffman, Duen Horng (Polo) Chau
- Abstract要約: 対話型可視化システムVisCUITについて述べる。
VisCUITは、分類器が性能の低いサブグループを視覚的に要約し、アンダーパフォーマンスの原因を発見して特徴付けるのを助ける。
VisCUITはモダンなブラウザで動作し、オープンソースであるため、ツールを他のモデルアーキテクチャやデータセットに簡単にアクセスして拡張することができる。
- 参考スコア(独自算出の注目度): 16.893261829969642
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: CNN image classifiers are widely used, thanks to their efficiency and
accuracy. However, they can suffer from biases that impede their practical
applications. Most existing bias investigation techniques are either
inapplicable to general image classification tasks or require significant user
efforts in perusing all data subgroups to manually specify which data
attributes to inspect. We present VisCUIT, an interactive visualization system
that reveals how and why a CNN classifier is biased. VisCUIT visually
summarizes the subgroups on which the classifier underperforms and helps users
discover and characterize the cause of the underperformances by revealing image
concepts responsible for activating neurons that contribute to
misclassifications. VisCUIT runs in modern browsers and is open-source,
allowing people to easily access and extend the tool to other model
architectures and datasets. VisCUIT is available at the following public demo
link: https://poloclub.github.io/VisCUIT. A video demo is available at
https://youtu.be/eNDbSyM4R_4.
- Abstract(参考訳): CNN画像分類器は、その効率と精度のために広く使われている。
しかし、実用的応用を妨げる偏見に苦しむことがある。
既存のバイアス調査技術のほとんどは、一般的な画像分類タスクには適用できないか、または検査すべきデータ属性を手作業で指定するためにすべてのデータサブグループを熟読するための重要なユーザー努力を必要とする。
本稿では,cnn分類器の偏りを可視化する対話型可視化システムviscuitを提案する。
VisCUITは、分類器が機能しないサブグループを視覚的に要約し、誤分類に寄与するニューロンの活性化に責任があるイメージ概念を明らかにすることで、ユーザがパフォーマンスの原因を発見し、特徴付けるのを助ける。
VisCUITはモダンなブラウザで動作し、オープンソースであるため、ツールを他のモデルアーキテクチャやデータセットに簡単にアクセスして拡張することができる。
VisCUITは以下の公開デモリンクで利用可能である。
ビデオデモはhttps://youtu.be/endbsym4r_4で見ることができる。
関連論文リスト
- Neural Clustering based Visual Representation Learning [61.72646814537163]
クラスタリングは、機械学習とデータ分析における最も古典的なアプローチの1つである。
本稿では,特徴抽出をデータから代表者を選択するプロセスとみなすクラスタリング(FEC)による特徴抽出を提案する。
FECは、個々のクラスタにピクセルをグループ化して抽象的な代表を配置し、現在の代表とピクセルの深い特徴を更新する。
論文 参考訳(メタデータ) (2024-03-26T06:04:50Z) - Classification of Alzheimers Disease with Deep Learning on Eye-tracking
Data [0.7366405857677227]
我々は、生のETデータに基づいて訓練されたエンドツーエンドのDeep-Learning分類器を用いて、既存の結果を改善することができるかどうかを検討する。
ターゲットAD分類タスクにVTNetを適用する上での大きな課題は、ETデータシーケンスが以前の混乱検出タスクよりもはるかに長いことである。
VTNetは、AD分類における最先端のアプローチよりも優れており、このモデルの汎用性に関する確かな証拠を提供する。
論文 参考訳(メタデータ) (2023-09-22T02:02:59Z) - VLSlice: Interactive Vision-and-Language Slice Discovery [17.8634551024147]
VLSliceは、一貫した視覚言語行動を伴うコヒーレントな表現レベルサブグループの発見を可能にする対話型システムである。
VLSliceは,ユーザの学習において多種多様な高一貫性スライスを迅速に生成し,ツールを一般公開することを可能にする。
論文 参考訳(メタデータ) (2023-09-13T04:02:38Z) - Mitigating Representation Bias in Action Recognition: Algorithms and
Benchmarks [76.35271072704384]
ディープラーニングモデルは、稀なシーンやオブジェクトを持つビデオに適用すると、パフォーマンスが悪くなります。
この問題にはアルゴリズムとデータセットの2つの異なる角度から対処する。
偏りのある表現は、他のデータセットやタスクに転送するとより一般化できることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:30:35Z) - GOCA: Guided Online Cluster Assignment for Self-Supervised Video
Representation Learning [49.69279760597111]
クラスタリングは教師なし学習におけるユビキタスなツールです。
既存の自己教師型表現学習手法の多くは、視覚的に支配的な特徴に基づくクラスタサンプルが一般的である。
具体的には、各ビューの初期クラスタ割り当てを事前に使用して、他のビューの最終クラスタ割り当てをガイドする、新しいクラスタリング戦略を提案する。
論文 参考訳(メタデータ) (2022-07-20T19:26:55Z) - Self-Supervised Learning for Fine-Grained Image Classification [0.0]
きめ細かいデータセットは通常、分類プロセスを支援するために、クラスラベルとともにバウンディングボックスアノテーションを提供する。
一方、自己教師付き学習では、自由に利用可能なデータを利用してラベルとして機能する監視信号を生成する。
我々の考えは、モデルが微細な画像クラスの有用な表現を学習できるように、自己スーパービジョンを活用することである。
論文 参考訳(メタデータ) (2021-07-29T14:01:31Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z) - A Systematic Evaluation: Fine-Grained CNN vs. Traditional CNN
Classifiers [54.996358399108566]
本稿では,大規模分類データセット上でトップノーチ結果を示すランドマーク一般的なCNN分類器の性能について検討する。
最先端のきめ細かい分類器と比較する。
実験において, 粒度の細かい分類器がベースラインを高められるかどうかを判定するために, 6つのデータセットについて広範囲に評価する。
論文 参考訳(メタデータ) (2020-03-24T23:49:14Z) - Ensembles of Deep Neural Networks for Action Recognition in Still Images [3.7900158137749336]
本稿では,大量のラベル付き行動認識データセットの欠如に対処するための伝達学習手法を提案する。
フレームワークには8つのトレーニング済みのCNNも使用して、Stanford 40データセットのパフォーマンスを調査しています。
我々の手法の最良の設定は、スタンフォード40データセットで93.17$%の精度を達成することができる。
論文 参考訳(メタデータ) (2020-03-22T13:44:09Z) - A Bayes-Optimal View on Adversarial Examples [9.51828574518325]
ベイズ最適分類の観点から, 対立例を考察する。
これらの「金の標準」最適分類器が堅牢である場合でも、同じデータセットでトレーニングされたCNNは、常に脆弱な分類器を学習する。
論文 参考訳(メタデータ) (2020-02-20T16:43:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。