論文の概要: I Am Going MAD: Maximum Discrepancy Competition for Comparing
Classifiers Adaptively
- arxiv url: http://arxiv.org/abs/2002.10648v1
- Date: Tue, 25 Feb 2020 03:32:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 20:26:03.772342
- Title: I Am Going MAD: Maximum Discrepancy Competition for Comparing
Classifiers Adaptively
- Title(参考訳): 私はMADに行く: 分類器を適応的に比較するための最大離散性競争
- Authors: Haotao Wang, Tianlong Chen, Zhangyang Wang and Kede Ma
- Abstract要約: 我々は、MAD(Maximum Discrepancy)コンペティションを命名する。
任意に大きいラベル付き画像のコーパスから小さなテストセットを適応的にサンプリングする。
結果のモデル依存画像集合に人間のラベルを付けると、競合する分類器の相対的な性能が明らかになる。
- 参考スコア(独自算出の注目度): 135.7695909882746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The learning of hierarchical representations for image classification has
experienced an impressive series of successes due in part to the availability
of large-scale labeled data for training. On the other hand, the trained
classifiers have traditionally been evaluated on small and fixed sets of test
images, which are deemed to be extremely sparsely distributed in the space of
all natural images. It is thus questionable whether recent performance
improvements on the excessively re-used test sets generalize to real-world
natural images with much richer content variations. Inspired by efficient
stimulus selection for testing perceptual models in psychophysical and
physiological studies, we present an alternative framework for comparing image
classifiers, which we name the MAximum Discrepancy (MAD) competition. Rather
than comparing image classifiers using fixed test images, we adaptively sample
a small test set from an arbitrarily large corpus of unlabeled images so as to
maximize the discrepancies between the classifiers, measured by the distance
over WordNet hierarchy. Human labeling on the resulting model-dependent image
sets reveals the relative performance of the competing classifiers, and
provides useful insights on potential ways to improve them. We report the MAD
competition results of eleven ImageNet classifiers while noting that the
framework is readily extensible and cost-effective to add future classifiers
into the competition. Codes can be found at https://github.com/TAMU-VITA/MAD.
- Abstract(参考訳): 画像分類のための階層表現の学習は、トレーニングのための大規模ラベル付きデータの提供によって、印象的な成功を収めている。
一方、訓練された分類器は、伝統的に、全ての自然画像の空間に極端に分散していると考えられる、小さな、固定されたテスト画像の集合で評価されてきた。
したがって、過度に再利用されたテストセットの最近のパフォーマンス改善が、よりリッチなコンテンツバリエーションを持つ実世界の自然画像に一般化されるかどうか疑問である。
心理物理学および生理学的研究における知覚モデルをテストするための効率的な刺激選択に着想を得て、画像分類器を比較するための代替フレームワークを提案する。
固定画像を用いて画像分類器を比較するのではなく、任意に大きいラベル付き画像のコーパスから小さなテストセットを適応的にサンプリングし、WordNet階層上の距離で測定した分類器間の差を最大化する。
得られたモデル依存画像集合上の人間のラベル付けは、競合する分類器の相対的な性能を明らかにし、それらを改善する潜在的な方法に関する有用な洞察を提供する。
我々は,11個のImageNet分類器のMAD競合結果を報告するとともに,フレームワークが容易に拡張可能で,将来的な分類器の追加に費用対効果があることに注意する。
コードはhttps://github.com/TAMU-VITA/MADで見ることができる。
関連論文リスト
- Efficient Exploration of Image Classifier Failures with Bayesian Optimization and Text-to-Image Models [4.59357989139429]
検証セットで評価されたパフォーマンスは、実世界でのパフォーマンスを反映しないかもしれない。
テキストから画像への生成モデルの最近の進歩は、コンピュータビジョンモデルのベンチマークに有用である。
論文 参考訳(メタデータ) (2024-04-26T06:22:43Z) - Enhance Image Classification via Inter-Class Image Mixup with Diffusion Model [80.61157097223058]
画像分類性能を高めるための一般的な戦略は、T2Iモデルによって生成された合成画像でトレーニングセットを増強することである。
本研究では,既存のデータ拡張技術の欠点について検討する。
Diff-Mixと呼ばれる革新的なクラス間データ拡張手法を導入する。
論文 参考訳(メタデータ) (2024-03-28T17:23:45Z) - Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Diversified in-domain synthesis with efficient fine-tuning for few-shot
classification [64.86872227580866]
画像分類は,クラスごとのラベル付き例の小さなセットのみを用いて,画像分類器の学習を目的としている。
合成データを用いた数ショット学習における一般化問題に対処する新しいアプローチである DisEF を提案する。
提案手法を10種類のベンチマークで検証し,ベースラインを一貫して上回り,数ショット分類のための新しい最先端の手法を確立した。
論文 参考訳(メタデータ) (2023-12-05T17:18:09Z) - Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - Mix-up Self-Supervised Learning for Contrast-agnostic Applications [33.807005669824136]
コントラストに依存しないアプリケーションのための,最初の混合型自己教師型学習フレームワークを提案する。
クロスドメイン・ミックスアップに基づく画像間の低分散に対処し、画像再構成と透明性予測に基づくプレテキストタスクを構築する。
論文 参考訳(メタデータ) (2022-04-02T16:58:36Z) - Weakly-supervised Generative Adversarial Networks for medical image
classification [1.479639149658596]
Weakly-Supervised Generative Adversarial Networks (WSGAN) と呼ばれる新しい医用画像分類アルゴリズムを提案する。
WSGANは、ラベルのない少数の実画像のみを使用して、偽画像やマスク画像を生成し、トレーニングセットのサンプルサイズを拡大する。
ラベル付きデータやラベルなしデータの少ない使用により,WSGANは比較的高い学習性能が得られることを示す。
論文 参考訳(メタデータ) (2021-11-29T15:38:48Z) - Multi-Label Image Classification with Contrastive Learning [57.47567461616912]
コントラスト学習の直接適用は,複数ラベルの場合においてほとんど改善できないことを示す。
完全教師付き環境下でのコントラスト学習を用いたマルチラベル分類のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-24T15:00:47Z) - Adaptive Label Smoothing [1.3198689566654107]
本稿では,学習中の目的意識とラベルの平滑化を併用した新しい分類手法を提案する。
適応ラベルスムーシングを用いて訓練されたCNNが、予測に過信される可能性がはるかに低いことを示すために、ImageNetを用いた広範な結果を示す。
論文 参考訳(メタデータ) (2020-09-14T13:37:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。