論文の概要: Adaptive Label Smoothing
- arxiv url: http://arxiv.org/abs/2009.06432v2
- Date: Mon, 7 Dec 2020 23:19:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 11:22:25.009053
- Title: Adaptive Label Smoothing
- Title(参考訳): 適応ラベル平滑化
- Authors: Ujwal Krothapalli and A. Lynn Abbott
- Abstract要約: 本稿では,学習中の目的意識とラベルの平滑化を併用した新しい分類手法を提案する。
適応ラベルスムーシングを用いて訓練されたCNNが、予測に過信される可能性がはるかに低いことを示すために、ImageNetを用いた広範な結果を示す。
- 参考スコア(独自算出の注目度): 1.3198689566654107
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper concerns the use of objectness measures to improve the calibration
performance of Convolutional Neural Networks (CNNs). CNNs have proven to be
very good classifiers and generally localize objects well; however, the loss
functions typically used to train classification CNNs do not penalize inability
to localize an object, nor do they take into account an object's relative size
in the given image. During training on ImageNet-1K almost all approaches use
random crops on the images and this transformation sometimes provides the CNN
with background only samples. This causes the classifiers to depend on context.
Context dependence is harmful for safety-critical applications. We present a
novel approach to classification that combines the ideas of objectness and
label smoothing during training. Unlike previous methods, we compute a
smoothing factor that is \emph{adaptive} based on relative object size within
an image. This causes our approach to produce confidences that are grounded in
the size of the object being classified instead of relying on context to make
the correct predictions. We present extensive results using ImageNet to
demonstrate that CNNs trained using adaptive label smoothing are much less
likely to be overconfident in their predictions. We show qualitative results
using class activation maps and quantitative results using classification and
transfer learning tasks. Our approach is able to produce an order of magnitude
reduction in confidence when predicting on context only images when compared to
baselines. Using transfer learning, we gain 2.1mAP on MS COCO compared to the
hard label approach.
- Abstract(参考訳): 本稿では,畳み込みニューラルネットワーク(cnns)のキャリブレーション性能を改善するための対象性尺度の利用について述べる。
CNNは、非常に優れた分類器であり、一般にオブジェクトをローカライズすることが証明されているが、典型的には分類訓練に使用される損失関数は、オブジェクトをローカライズできないことや、オブジェクトの相対的なサイズを考慮に入れない。
imagenet-1kでのトレーニング中、ほとんどのアプローチは画像にランダムな作物を使用し、この変換はcnnに背景のみのサンプルを提供する。
これにより、分類器は文脈に依存する。
コンテキスト依存は安全クリティカルなアプリケーションには有害である。
本稿では,学習中の目的意識とラベルの平滑化を組み合わせた新しい分類手法を提案する。
従来の方法とは異なり、画像内の相対オブジェクトサイズに基づいて、平滑化係数を \emph{adaptive} と計算する。
これによって私たちのアプローチは、正しい予測を行うためにコンテキストに頼るのではなく、分類されるオブジェクトのサイズに基礎を置く自信を生み出すことができます。
我々はimagenetを用いて,適応ラベル平滑化を用いたcnnの学習が,その予測に自信過剰である可能性が低いことを示す。
クラスアクティベーションマップを用いた定性的な結果と、分類と伝達学習タスクを用いた定量的結果を示す。
提案手法は,ベースラインと比較した場合に,コンテキストのみの画像を予測した場合に,信頼度を大幅に低下させることができる。
転送学習を用いて,MS COCOの2.1mAPをハードラベル法と比較した。
関連論文リスト
- Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - Facilitated machine learning for image-based fruit quality assessment in
developing countries [68.8204255655161]
自動画像分類は食品科学における教師あり機械学習の一般的な課題である。
事前学習型視覚変換器(ViT)に基づく代替手法を提案する。
標準的なデバイス上で限られたリソースで簡単に実装できる。
論文 参考訳(メタデータ) (2022-07-10T19:52:20Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - TransformNet: Self-supervised representation learning through predicting
geometric transformations [0.8098097078441623]
入力データに適用された幾何変換の認識のための教師なし意味特徴学習手法について述べる。
我々のアプローチの基本概念は、画像中の物体を知らない人が、それらに適用された幾何学的変換を定量的に予測できないことである。
論文 参考訳(メタデータ) (2022-02-08T22:41:01Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Exploring the Interchangeability of CNN Embedding Spaces [0.5735035463793008]
画像分類CNN10点と顔認識CNN4点をマップする。
同じクラスにトレーニングされ、共通のバックエンド-ログアーキテクチャを共有するCNNの場合、リニアマッピングは常にバックエンド層重みから直接計算される。
この意味は遠く離れており、共通のタスクのために設計、訓練されたネットワークによって学習された表現間の基礎的な共通性を示している。
論文 参考訳(メタデータ) (2020-10-05T20:32:40Z) - Learning CNN filters from user-drawn image markers for coconut-tree
image classification [78.42152902652215]
本稿では,CNNの特徴抽出器を訓練するために,最小限のユーザ選択画像を必要とする手法を提案する。
本手法は,クラスを識別する画像領域のユーザ描画マーカーから,各畳み込み層のフィルタを学習する。
バックプロパゲーションに基づく最適化には依存せず、ココナッツツリー空中画像のバイナリ分類にその利点を実証する。
論文 参考訳(メタデータ) (2020-08-08T15:50:23Z) - I Am Going MAD: Maximum Discrepancy Competition for Comparing
Classifiers Adaptively [135.7695909882746]
我々は、MAD(Maximum Discrepancy)コンペティションを命名する。
任意に大きいラベル付き画像のコーパスから小さなテストセットを適応的にサンプリングする。
結果のモデル依存画像集合に人間のラベルを付けると、競合する分類器の相対的な性能が明らかになる。
論文 参考訳(メタデータ) (2020-02-25T03:32:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。