論文の概要: Permuted AdaIN: Reducing the Bias Towards Global Statistics in Image
Classification
- arxiv url: http://arxiv.org/abs/2010.05785v3
- Date: Wed, 23 Jun 2021 17:04:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 05:59:22.619843
- Title: Permuted AdaIN: Reducing the Bias Towards Global Statistics in Image
Classification
- Title(参考訳): Permuted AdaIN: 画像分類における世界統計へのバイアス削減
- Authors: Oren Nuriel, Sagie Benaim, Lior Wolf
- Abstract要約: 近年の研究では、畳み込みニューラルネットワーク分類器は形状を犠牲にしてテクスチャを過度に依存していることが示されている。
一方、形状と局所像の区別は類似しているが異なるが、一方、グローバル画像統計は異なる。
提案手法は,pAdaIN (Permuted Adaptive Instance Normalization) と呼ばれ,画像分類器の隠蔽層におけるグローバル統計の表現を減少させる。
- 参考スコア(独自算出の注目度): 97.81205777897043
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work has shown that convolutional neural network classifiers overly
rely on texture at the expense of shape cues. We make a similar but different
distinction between shape and local image cues, on the one hand, and global
image statistics, on the other. Our method, called Permuted Adaptive Instance
Normalization (pAdaIN), reduces the representation of global statistics in the
hidden layers of image classifiers. pAdaIN samples a random permutation $\pi$
that rearranges the samples in a given batch. Adaptive Instance Normalization
(AdaIN) is then applied between the activations of each (non-permuted) sample
$i$ and the corresponding activations of the sample $\pi(i)$, thus swapping
statistics between the samples of the batch. Since the global image statistics
are distorted, this swapping procedure causes the network to rely on cues, such
as shape or texture. By choosing the random permutation with probability $p$
and the identity permutation otherwise, one can control the effect's strength.
With the correct choice of $p$, fixed apriori for all experiments and
selected without considering test data, our method consistently outperforms
baselines in multiple settings. In image classification, our method improves on
both CIFAR100 and ImageNet using multiple architectures. In the setting of
robustness, our method improves on both ImageNet-C and Cifar-100-C for multiple
architectures. In the setting of domain adaptation and domain generalization,
our method achieves state of the art results on the transfer learning task from
GTAV to Cityscapes and on the PACS benchmark.
- Abstract(参考訳): 近年の研究では、畳み込みニューラルネットワーク分類器は形状を犠牲にしてテクスチャに依存することが示されている。
一方、形状と局所像の区別は類似しているが異なるが、一方、グローバル画像統計は異なる。
提案手法は,pAdaIN(Permuted Adaptive Instance Normalization)と呼ばれ,画像分類器の隠蔽層におけるグローバル統計の表現を低減する。
padainは、与えられたバッチ内のサンプルを並べ替えるランダムな置換$\pi$をサンプリングする。
適応インスタンス正規化(adain)は、各(置換されていない)サンプル$i$のアクティベーションと、対応するサンプル$\pi(i)$のアクティベーションの間に適用される。
グローバル画像統計は歪んでいるため、この交換手順により、ネットワークは形状やテクスチャなどの手がかりに依存することになる。
確率 $p$ のランダム置換とそれ以外は恒等置換を選択することで、効果の強さを制御できる。
すべての実験で$p$と固定 aprioriを正しく選択し、テストデータを考慮せずに選択することで、複数の設定でベースラインを一貫して上回っています。
画像分類では,複数のアーキテクチャを用いてCIFAR100とImageNetの両方を改良する。
堅牢性の設定では、複数のアーキテクチャに対して ImageNet-C と Cifar-100-C の両方を改良する。
ドメイン適応とドメイン一般化の設定において,本手法はGTAVからCityscapesおよびPACSベンチマークへの変換学習タスクにおける技術結果の状態を達成している。
関連論文リスト
- MB-RACS: Measurement-Bounds-based Rate-Adaptive Image Compressed Sensing Network [65.1004435124796]
本稿では,MB-RACS(Message-Bounds-based Rate-Adaptive Image Compressed Sensing Network)フレームワークを提案する。
実験により,提案手法が現在の先行手法を超越していることが実証された。
論文 参考訳(メタデータ) (2024-01-19T04:40:20Z) - High-fidelity Pseudo-labels for Boosting Weakly-Supervised Segmentation [17.804090651425955]
画像レベルの弱い教師付きセグメンテーション(WSSS)は、トレーニング中にセグメンテーションマスクを代理することで、通常膨大なデータアノテーションコストを削減する。
本研究は,GAPの代替となる重要サンプリングと特徴類似性損失という,CAMを改善するための2つの手法に基づく。
複数の独立二項問題の後部二項問題に基づいて両手法を再構成する。
パフォーマンスが向上し、より一般的なものになり、事実上あらゆるWSSSメソッドを増強できるアドオンメソッドが出来上がります。
論文 参考訳(メタデータ) (2023-04-05T17:43:57Z) - Generalized Differentiable RANSAC [95.95627475224231]
$nabla$-RANSACは、ランダム化された堅牢な推定パイプライン全体を学ぶことができる、微分可能なRANSACである。
$nabla$-RANSACは、精度という点では最先端のシステムよりも優れているが、精度は低い。
論文 参考訳(メタデータ) (2022-12-26T15:13:13Z) - Test-time Batch Statistics Calibration for Covariate Shift [66.7044675981449]
我々は,推論中に深層モデルを新しい環境に適応させることを提案する。
バッチ統計の校正に$alpha$-BNの一般的な定式化を提案する。
また、統合テスト時間適応フレームワークCoreを形成するための新しい損失関数も提示する。
論文 参考訳(メタデータ) (2021-10-06T08:45:03Z) - A Hierarchical Transformation-Discriminating Generative Model for Few
Shot Anomaly Detection [93.38607559281601]
各トレーニングイメージのマルチスケールパッチ分布をキャプチャする階層的生成モデルを開発した。
この異常スコアは、スケール及び画像領域にわたる正しい変換のパッチベースの投票を集約して得られる。
論文 参考訳(メタデータ) (2021-04-29T17:49:48Z) - Exploiting Invariance in Training Deep Neural Networks [4.169130102668252]
動物視覚システムの2つの基本的なメカニズムに触発され、ディープニューラルネットワークのトレーニングに不変性を与える特徴変換技術を紹介します。
結果として得られるアルゴリズムはパラメータチューニングを少なくし、初期学習率1.0でうまくトレーニングし、異なるタスクに簡単に一般化する。
ImageNet、MS COCO、Cityscapesデータセットでテストされた当社の提案手法は、トレーニングにより少ないイテレーションを必要とし、すべてのベースラインを大きなマージンで上回り、小規模および大規模のバッチサイズのトレーニングをシームレスに行い、画像分類、オブジェクト検出、セマンティックセグメンテーションの異なるコンピュータビジョンタスクに適用します。
論文 参考訳(メタデータ) (2021-03-30T19:18:31Z) - Center-wise Local Image Mixture For Contrastive Representation Learning [37.806687971373954]
インスタンス識別列車モデルに基づくコントラスト学習は、アンカーサンプルの異なる変換を他のサンプルと区別する。
本稿では,データセット内の他のサンプルからの正値を用いた新しいコントラスト学習手法であるCLIMを提案する。
ResNet-50に対する線形評価で75.5%のトップ1精度に達し、わずか1%のラベルで微調整された場合、59.3%のトップ1精度を得る。
論文 参考訳(メタデータ) (2020-11-05T08:20:31Z) - Tent: Fully Test-time Adaptation by Entropy Minimization [77.85911673550851]
モデルは、テスト中に新しいデータや異なるデータに一般化するように適応する必要があります。
この完全なテスト時間適応の設定では、モデルはテストデータとそれ自身のパラメータしか持たない。
実験エントロピー最小化(tent): 予測のエントロピーによって測定された信頼度に対するモデルを最適化する。
論文 参考訳(メタデータ) (2020-06-18T17:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。