論文の概要: Generative Classifiers as a Basis for Trustworthy Image Classification
- arxiv url: http://arxiv.org/abs/2007.15036v2
- Date: Wed, 2 Dec 2020 18:36:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 19:52:09.064412
- Title: Generative Classifiers as a Basis for Trustworthy Image Classification
- Title(参考訳): 信頼できる画像分類の基礎としての生成的分類器
- Authors: Radek Mackowiak, Lynton Ardizzone, Ullrich K\"othe, Carsten Rother
- Abstract要約: 我々は,実用的なコンピュータビジョンを実現するため,GCがより複雑なレベルで動作できるようにするアーキテクチャとトレーニング手法を開発した。
我々は、信頼できる画像分類のためのGCの膨大な可能性を実証する。
我々は、他の生成的分類タスクの出発点となることを期待して、トレーニングされたモデルをダウンロードするためにリリースします。
- 参考スコア(独自算出の注目度): 31.964489116544947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the maturing of deep learning systems, trustworthiness is becoming
increasingly important for model assessment. We understand trustworthiness as
the combination of explainability and robustness. Generative classifiers (GCs)
are a promising class of models that are said to naturally accomplish these
qualities. However, this has mostly been demonstrated on simple datasets such
as MNIST and CIFAR in the past. In this work, we firstly develop an
architecture and training scheme that allows GCs to operate on a more relevant
level of complexity for practical computer vision, namely the ImageNet
challenge. Secondly, we demonstrate the immense potential of GCs for
trustworthy image classification. Explainability and some aspects of robustness
are vastly improved compared to feed-forward models, even when the GCs are just
applied naively. While not all trustworthiness problems are solved completely,
we observe that GCs are a highly promising basis for further algorithms and
modifications. We release our trained model for download in the hope that it
serves as a starting point for other generative classification tasks, in much
the same way as pretrained ResNet architectures do for discriminative
classification.
- Abstract(参考訳): ディープラーニングシステムの成熟に伴い、モデルアセスメントにおいて信頼性がますます重要になっている。
我々は、説明可能性と堅牢性の組み合わせとして、信頼性を理解する。
生成的分類器(GCs)は、これらの性質を自然に達成するとされるモデルの有望なクラスである。
しかし、これは主にMNISTやCIFARといった単純なデータセットで過去に実証された。
本研究では,まず,実用的なコンピュータビジョン,すなわちimagenetチャレンジにおいて,gcがより適切な複雑性レベルで動作することを可能にするアーキテクチャとトレーニングスキームを開発した。
次に,信頼性の高い画像分類のためのGCの可能性を示す。
説明可能性と頑健さのいくつかの側面は、GCが純粋に適用されるだけで、フィードフォワードモデルよりも大幅に改善されます。
すべての信頼性問題が完全に解決されるわけではないが、GCはさらなるアルゴリズムと修正のための非常に有望な基盤である。
トレーニング済みのResNetアーキテクチャが差別的分類を行うのと同じように、他の生成的分類タスクの出発点になることを期待して、トレーニング済みのモデルをダウンロード用にリリースします。
関連論文リスト
- Retrieval-Enhanced Contrastive Vision-Text Models [61.783728119255365]
そこで本研究では,メモリから取得したクロスモーダルな情報を推論時に表現することで,その埋め込みを洗練できる視覚テキストモデルを提案する。
注目すべきことに、これは凍ったCLIPの上に軽量の単層核融合トランスを用いて行うことができる。
検索強化コントラスト訓練(RECO)がCLIPの性能を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-06-12T15:52:02Z) - Fine-Grained ImageNet Classification in the Wild [0.0]
ロバストネステストは、典型的なモデル評価段階で気づかないいくつかの脆弱性やバイアスを明らかにすることができる。
本研究では,階層的知識の助けを借りて,密接に関連するカテゴリのきめ細かい分類を行う。
論文 参考訳(メタデータ) (2023-03-04T12:25:07Z) - GCNet: Probing Self-Similarity Learning for Generalized Counting Network [24.09746233447471]
一般カウントネットワーク(GCNet)は、画像全体の適応的な例を認識するために開発された。
GCNetは、慎重に設計された自己相似学習戦略を通じてそれらを適応的にキャプチャすることができる。
既存の例によるメソッドと同等に動作し、クラウド固有のデータセット上で、驚くべきクロスデータセットの汎用性を示している。
論文 参考訳(メタデータ) (2023-02-10T09:31:37Z) - Visual Recognition with Deep Nearest Centroids [57.35144702563746]
我々は、概念的にエレガントで驚くほど効果的な大規模視覚認識ネットワークである深部セントロイド(DNC)を考案した。
パラメトリックと比較すると、DNCは画像分類(CIFAR-10, ImageNet)に優れ、画像認識(ADE20K, Cityscapes)を大いに起動する。
論文 参考訳(メタデータ) (2022-09-15T15:47:31Z) - Open-Set Recognition: A Good Closed-Set Classifier is All You Need [146.6814176602689]
分類器が「ゼロ・オブ・ア・ア・ア・ベ」決定を行う能力は、閉集合クラスにおける精度と高い相関関係があることが示される。
この相関を利用して、閉セット精度を向上させることにより、クロスエントロピーOSR'ベースライン'の性能を向上させる。
また、セマンティックノベルティを検出するタスクをより尊重する新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2021-10-12T17:58:59Z) - Benchmarking the Robustness of Instance Segmentation Models [3.1287804585804073]
本稿では,実世界の画像の破損や領域外画像の収集に関して,インスタンス分割モデルの包括的評価を行う。
領域外画像評価は、実世界のアプリケーションにおいて重要な側面であるモデルの一般化能力を示している。
具体的には、最先端のネットワークアーキテクチャ、ネットワークバックボーン、正規化レイヤ、スクラッチからトレーニングされたモデル、ImageNet事前訓練ネットワークが含まれる。
論文 参考訳(メタデータ) (2021-09-02T17:50:07Z) - Evaluating CLIP: Towards Characterization of Broader Capabilities and
Downstream Implications [8.15254368157658]
私たちはCLIPを分析し、そのようなモデルがもたらす課題をいくつか強調します。
CLIPは、従来のコンピュータビジョンシステムに見られるバイアスを継承できる。
これらの結果は、成長する仕事の体に「ベター」モデルの概念を変えることを要求する証拠となる。
論文 参考訳(メタデータ) (2021-08-05T19:05:57Z) - Estimating the Robustness of Classification Models by the Structure of
the Learned Feature-Space [10.418647759223964]
固定テストセットは、可能なデータバリエーションのごく一部しかキャプチャできないため、制限され、新しい過度なソリューションを生成する傾向にある、と私たちは主張する。
これらの欠点を克服するために、学習した特徴空間の構造から直接モデルのロバスト性を推定することを提案する。
論文 参考訳(メタデータ) (2021-06-23T10:52:29Z) - Counterfactual Generative Networks [59.080843365828756]
画像生成過程を直接監督せずに訓練する独立した因果機構に分解することを提案する。
適切な誘導バイアスを活用することによって、これらのメカニズムは物体の形状、物体の質感、背景を解き放つ。
その結果, 偽画像は, 元の分類タスクにおける性能の低下を伴い, 分散性が向上することが示された。
論文 参考訳(メタデータ) (2021-01-15T10:23:12Z) - Rethinking Clustering for Robustness [56.14672993686335]
ClusTRは、ロバストモデルを学ぶためのクラスタリングベースの、対向のないトレーニングフレームワークである。
textitClusTRは、強いPGD攻撃の下で、敵に訓練されたネットワークを最大4%上回ります。
論文 参考訳(メタデータ) (2020-06-13T16:55:51Z) - Interpretable Learning-to-Rank with Generalized Additive Models [78.42800966500374]
ラーニング・ツー・ランクのモデルの解釈可能性は、非常に重要でありながら、比較的過小評価されている研究分野である。
解釈可能なランキングモデルの最近の進歩は、主に既存のブラックボックスランキングモデルに対するポストホックな説明の生成に焦点を当てている。
一般化加法モデル(GAM)をランキングタスクに導入することにより,本質的に解釈可能な学習 to ランクの基盤を築いた。
論文 参考訳(メタデータ) (2020-05-06T01:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。