論文の概要: Image classifiers can not be made robust to small perturbations
- arxiv url: http://arxiv.org/abs/2112.04033v1
- Date: Tue, 7 Dec 2021 23:10:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-09 13:48:12.984018
- Title: Image classifiers can not be made robust to small perturbations
- Title(参考訳): 画像分類器は小さな摂動に対して堅牢にできない
- Authors: Zheng Dai and David K. Gifford
- Abstract要約: 画像空間の直径に比較して小さな変更を加えることで,クラス内の画像のごく一部を除くすべての分類を変更できることが示される。
次に,この現象が人間の視覚に与える影響を考察し,コンピュータビジョンシステムの設計上の意義について考察する。
- 参考スコア(独自算出の注目度): 2.4105738527229805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The sensitivity of image classifiers to small perturbations in the input is
often viewed as a defect of their construction. We demonstrate that this
sensitivity is a fundamental property of classifiers. For any arbitrary
classifier over the set of $n$-by-$n$ images, we show that for all but one
class it is possible to change the classification of all but a tiny fraction of
the images in that class with a tiny modification compared to the diameter of
the image space when measured in any $p$-norm, including the hamming distance.
We then examine how this phenomenon manifests in human visual perception and
discuss its implications for the design considerations of computer vision
systems.
- Abstract(参考訳): 入力中の小さな摂動に対する画像分類器の感度は、しばしばその構成の欠陥と見なされる。
この感度が分類器の基本特性であることを実証する。
例えば、$n$-by-$n$の画像集合上の任意の分類器について、1つのクラスを除くすべてのクラスに対して、ハミング距離を含む任意の$p$-normで測定された画像空間の直径と比較して、そのクラスの画像のごく一部を除いて、その分類を変更することができることを示す。
次に,この現象が人間の視覚に与える影響を考察し,コンピュータビジョンシステムの設計上の意義について考察する。
関連論文リスト
- Self-similarity Driven Scale-invariant Learning for Weakly Supervised
Person Search [66.95134080902717]
自己相似性駆動型スケール不変学習(SSL)という新しいワンステップフレームワークを提案する。
本稿では,ネットワークを前景と学習スケール不変の機能に集中させるための,マルチスケール・エクステンプラー・ブランチを提案する。
PRWおよびCUHK-SYSUデータベースの実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-02-25T04:48:11Z) - Rethinking Generalization in Few-Shot Classification [28.809141478504532]
単一のイメージレベルのアノテーションは、しばしば画像の内容の小さなサブセットを正しく記述するだけである。
本稿では、textitfew-shot Learning$の文脈における意味を詳しく調べる。
我々は、きめ細かいラベルの欠如を克服するため、マスク付き画像モデリングによるネットワークの教師なしトレーニングの最近の進歩の上に構築する。
論文 参考訳(メタデータ) (2022-06-15T03:05:21Z) - A Comprehensive Study of Image Classification Model Sensitivity to
Foregrounds, Backgrounds, and Visual Attributes [58.633364000258645]
このデータセットをRIVAL10と呼びます。
本研究では,前景,背景,属性の騒音劣化に対する幅広いモデルの感度を評価する。
本稿では,多種多様な最先端アーキテクチャ (ResNets, Transformers) とトレーニング手順 (CLIP, SimCLR, DeiT, Adversarial Training) について考察する。
論文 参考訳(メタデータ) (2022-01-26T06:31:28Z) - Amicable Aid: Perturbing Images to Improve Classification Performance [20.9291591835171]
深層画像分類モデルに攻撃する 画像の敵対的摂動は 実際に深刻なセキュリティ上の懸念を引き起こす
摂動の逆の探索方向を取れば,画像が修正され,高い分類信頼性が得られることを示す。
複数の画像に一定の摂動を印加し,その分類結果を改善できるユニバーサル・アミリタブル・エイズについて検討する。
論文 参考訳(メタデータ) (2021-12-09T06:16:08Z) - Enhancing Fine-Grained Classification for Low Resolution Images [97.82441158440527]
低解像度画像は、限られた情報内容の固有の課題と、サブカテゴリ分類に有用な詳細の欠如に悩まされる。
本研究では,補助情報を用いて分類の識別的特徴を学習する,新たな属性支援損失を提案する。
提案する損失関数により、モデルは属性レベルの分離性を取り入れながら、クラス固有の識別特徴を学習することができる。
論文 参考訳(メタデータ) (2021-05-01T13:19:02Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Just Noticeable Difference for Machine Perception and Generation of
Regularized Adversarial Images with Minimal Perturbation [8.920717493647121]
人間の知覚のジャスト通知差(JND)の概念に触発された機械知覚の尺度を紹介します。
本稿では,機械学習モデルが偽ラベルを出力することで画像の変化を検出するまで,画像を付加雑音で反復的に歪曲する逆画像生成アルゴリズムを提案する。
CIFAR10、ImageNet、MS COCOデータセット上で、アルゴリズムが生成する対向画像の定性的および定量的評価を行います。
論文 参考訳(メタデータ) (2021-02-16T11:01:55Z) - Evading Deepfake-Image Detectors with White- and Black-Box Attacks [75.13740810603686]
一般的な法医学的アプローチは、ニューラルネットワークを訓練して、実際の合成内容と区別することを示します。
我々は,既存の画像生成装置の約0.95のLOC曲線(AUC)以下の領域を達成できる最先端の分類器に関する5つの攻撃事例研究を開発した。
また、ターゲット分類器にアクセスできないブラックボックス攻撃により、AUCを0.22に削減する。
論文 参考訳(メタデータ) (2020-04-01T17:59:59Z) - I Am Going MAD: Maximum Discrepancy Competition for Comparing
Classifiers Adaptively [135.7695909882746]
我々は、MAD(Maximum Discrepancy)コンペティションを命名する。
任意に大きいラベル付き画像のコーパスから小さなテストセットを適応的にサンプリングする。
結果のモデル依存画像集合に人間のラベルを付けると、競合する分類器の相対的な性能が明らかになる。
論文 参考訳(メタデータ) (2020-02-25T03:32:29Z) - Utilizing a null class to restrict decision spaces and defend against
neural network adversarial attacks [0.0]
ディープニューラルネットワークは敵の例に弱い。
本研究では、nullクラスを含むモデルをトレーニングする。
ここで提示されるヌルクラスの使用とトレーニングパラダイムは、敵攻撃に対する効果的な防御を提供する可能性がある。
論文 参考訳(メタデータ) (2020-02-24T05:47:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。