論文の概要: What Does CNN Shift Invariance Look Like? A Visualization Study
- arxiv url: http://arxiv.org/abs/2011.04127v1
- Date: Mon, 9 Nov 2020 01:16:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 01:35:29.168796
- Title: What Does CNN Shift Invariance Look Like? A Visualization Study
- Title(参考訳): CNNシフト不変性はどのようなものか?
可視化研究
- Authors: Jake Lee, Junfeng Yang, Zhangyang Wang
- Abstract要約: 畳み込みニューラルネットワーク(CNN)による特徴抽出は、機械学習タスクの画像を表現する一般的な方法である。
我々は,一般的な市販CNNモデルから抽出した特徴量の変動を計測し,可視化することに注力する。
人気ネットワークから抽出された特徴はグローバルに不変ではなく,この分散の中にバイアスやアーティファクトが存在すると結論付けている。
- 参考スコア(独自算出の注目度): 87.79405274610681
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature extraction with convolutional neural networks (CNNs) is a popular
method to represent images for machine learning tasks. These representations
seek to capture global image content, and ideally should be independent of
geometric transformations. We focus on measuring and visualizing the shift
invariance of extracted features from popular off-the-shelf CNN models. We
present the results of three experiments comparing representations of millions
of images with exhaustively shifted objects, examining both local invariance
(within a few pixels) and global invariance (across the image frame). We
conclude that features extracted from popular networks are not globally
invariant, and that biases and artifacts exist within this variance.
Additionally, we determine that anti-aliased models significantly improve local
invariance but do not impact global invariance. Finally, we provide a code
repository for experiment reproduction, as well as a website to interact with
our results at https://jakehlee.github.io/visualize-invariance.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)による特徴抽出は、機械学習タスクの画像を表現する一般的な方法である。
これらの表現はグローバルな画像の内容を捉えようとしており、理想的には幾何学的変換とは独立していなければならない。
市販のcnnモデルから抽出した特徴のシフト不変性の測定と可視化に重点を置いている。
画像フレーム全体での局所的不変性(画素数個)と大域的不変性(画像フレーム全体)の両面から,数百万枚の画像の表現を指数関数的にシフトしたオブジェクトと比較した3つの実験結果を示す。
人気ネットワークから抽出された特徴はグローバルに不変ではなく,この分散内にバイアスやアーティファクトが存在すると結論付けている。
さらに, アンチエイリアスモデルが局所不変性を著しく改善するが, グローバル不分散には影響しないことを示す。
最後に、実験再現のためのコードリポジトリと、https://jakehlee.github.io/visualize-invarianceで結果とやり取りするwebサイトを提供します。
関連論文リスト
- Truly Scale-Equivariant Deep Nets with Fourier Layers [14.072558848402362]
コンピュータビジョンでは、モデルが画像の解像度の変化に適応し、画像分割などのタスクを効果的に実行できなければならない。
最近の研究は、ウェイトシェアリングとカーネルのリサイズを通じて、スケール平等な畳み込みニューラルネットワークの開発を進展させた。
本稿では,Fourier層に基づく新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-11-06T07:32:27Z) - Revisiting Data Augmentation for Rotational Invariance in Convolutional
Neural Networks [0.29127054707887967]
画像分類のためのCNNにおける回転不変性について検討する。
実験により、データ拡張だけで訓練されたネットワークは、通常の非回転の場合と同様に、回転した画像の分類がほぼ可能であることが示された。
論文 参考訳(メタデータ) (2023-10-12T15:53:24Z) - The Change You Want to See (Now in 3D) [65.61789642291636]
本稿の目的は、同じ3Dシーンの2つの「野生」画像の間で何が変わったかを検出することである。
我々は,全合成データに基づいて学習し,クラスに依存しない変化検出モデルに貢献する。
我々は,人間に注釈を付けた実世界のイメージペアによる評価データセットを新たにリリースした。
論文 参考訳(メタデータ) (2023-08-21T01:59:45Z) - Causal Transportability for Visual Recognition [70.13627281087325]
画像とラベルの関連性は、設定間では転送できないため、標準分類器がフェールすることを示す。
次に、すべての共起源を摂食する因果効果が、ドメイン間で不変であることを示す。
これにより、画像分類における因果効果を推定するアルゴリズムを開発する動機付けとなる。
論文 参考訳(メタデータ) (2022-04-26T15:02:11Z) - Do Deep Networks Transfer Invariances Across Classes? [123.84237389985236]
ニュアンス変換を学習するための生成的アプローチが、クラス間での不変性の伝達にどのように役立つかを示す。
この結果から,不均衡分布や細長い分布に対して分類器が不規則に一般化する理由が示唆された。
論文 参考訳(メタデータ) (2022-03-18T04:38:18Z) - Quantised Transforming Auto-Encoders: Achieving Equivariance to
Arbitrary Transformations in Deep Networks [23.673155102696338]
畳み込みニューラルネットワーク(CNN)は画像翻訳と等価である。
埋め込みは任意の等式関係を同時に従うオートエンコーダアーキテクチャを提案する。
いくつかのデータセット上で入力画像の変換版の再レンダリングに成功した結果を示す。
論文 参考訳(メタデータ) (2021-11-25T02:26:38Z) - Learning Online Visual Invariances for Novel Objects via Supervised and
Self-Supervised Training [0.76146285961466]
本稿では,複数の変換を行う合成3Dオブジェクトの画像を認識するためのトレーニングモデルにより,標準的なCNNが人間のようなオンライン不変性をサポートできるかどうかを評価する。
変換対象を訓練した標準教師付きCNNは,10クラスから50個のオブジェクトを抽出して訓練しても,新しいクラスで強い不変性を得ることができることを示す。
論文 参考訳(メタデータ) (2021-10-04T14:29:43Z) - Shift Invariance Can Reduce Adversarial Robustness [20.199887291186364]
シフト不変性は、分類のパフォーマンスを向上させるCNNの重要な特性です。
円偏移に対する不変性は、敵の攻撃に対する感受性を高めることも示している。
論文 参考訳(メタデータ) (2021-03-03T21:27:56Z) - Permuted AdaIN: Reducing the Bias Towards Global Statistics in Image
Classification [97.81205777897043]
近年の研究では、畳み込みニューラルネットワーク分類器は形状を犠牲にしてテクスチャを過度に依存していることが示されている。
一方、形状と局所像の区別は類似しているが異なるが、一方、グローバル画像統計は異なる。
提案手法は,pAdaIN (Permuted Adaptive Instance Normalization) と呼ばれ,画像分類器の隠蔽層におけるグローバル統計の表現を減少させる。
論文 参考訳(メタデータ) (2020-10-09T16:38:38Z) - Delving into Inter-Image Invariance for Unsupervised Visual
Representations [108.33534231219464]
画像間不変学習の役割をよりよく理解するための研究を提案する。
オンラインラベルはオフラインラベルよりも早く収束する。
半硬な負のサンプルは、硬い負のサンプルよりも信頼性が高く、偏りがない。
論文 参考訳(メタデータ) (2020-08-26T17:44:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。