論文の概要: Sparse Fooling Images: Fooling Machine Perception through Unrecognizable
Images
- arxiv url: http://arxiv.org/abs/2012.03843v1
- Date: Mon, 7 Dec 2020 16:47:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 21:22:04.083722
- Title: Sparse Fooling Images: Fooling Machine Perception through Unrecognizable
Images
- Title(参考訳): sparse fooling images: 認識不能な画像による機械の知覚を騙す
- Authors: Soichiro Kumano, Hiroshi Kera, Toshihiko Yamasaki
- Abstract要約: そこで本研究では,少ない画素数を持つ単一カラー画像であるスパルスドローイング画像(SFI)を新たに提案する。
SFIは自然対象として認識され、高い信頼度を持つクラスに分類される。
この研究はCNNの構造と堅牢性に関する質問を引き起こし、人間と機械の知覚の違いについて議論する。
- 参考スコア(独自算出の注目度): 36.42135216182063
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In recent years, deep neural networks (DNNs) have achieved equivalent or even
higher accuracy in various recognition tasks than humans. However, some images
exist that lead DNNs to a completely wrong decision, whereas humans never fail
with these images. Among others, fooling images are those that are not
recognizable as natural objects such as dogs and cats, but DNNs classify these
images into classes with high confidence scores. In this paper, we propose a
new class of fooling images, sparse fooling images (SFIs), which are single
color images with a small number of altered pixels. Unlike existing fooling
images, which retain some characteristic features of natural objects, SFIs do
not have any local or global features that can be recognizable to humans;
however, in machine perception (i.e., by DNN classifiers), SFIs are
recognizable as natural objects and classified to certain classes with high
confidence scores. We propose two methods to generate SFIs for different
settings~(semiblack-box and white-box). We also experimentally demonstrate the
vulnerability of DNNs through out-of-distribution detection and compare three
architectures in terms of the robustness against SFIs. This study gives rise to
questions on the structure and robustness of CNNs and discusses the differences
between human and machine perception.
- Abstract(参考訳): 近年、ディープニューラルネットワーク(DNN)は、人間よりも様々な認識タスクにおいて同等またはそれ以上の精度を達成した。
しかし、DNNが完全に間違った決定を下すような画像は存在するが、人間はこの画像に失敗することはない。
犬や猫のような自然の物体として認識できないが、DNNはこれらの画像を高い信頼度を持つクラスに分類する。
本稿では,少ない画素数で単一のカラー画像であるスパルス画像(SFI)を新たに提案する。
自然物の特徴をある程度保持している既存の愚かな画像とは異なり、SFIは人間に認識可能な局所的・グローバル的特徴を持たないが、機械認識(DNN分類器)では、SFIは自然物として認識され、高い信頼スコアを持つ特定のクラスに分類される。
異なる設定でsfisを生成する2つの方法を提案する(セミブラックボックスとホワイトボックス)。
また,分布外検出によるDNNの脆弱性を実験的に実証し,SFIに対する堅牢性の観点から3つのアーキテクチャを比較した。
本研究は,CNNの構造と堅牢性に関する疑問を提起し,人間と機械の知覚の違いについて考察する。
関連論文リスト
- Development of a Dual-Input Neural Model for Detecting AI-Generated Imagery [0.0]
AI生成画像を検出するツールを開発することが重要である。
本稿では、画像とフーリエ周波数分解の両方を入力として扱うデュアルブランチニューラルネットワークアーキテクチャを提案する。
提案モデルでは,CIFAKEデータセットの精度が94%向上し,従来のML手法やCNNよりも優れていた。
論文 参考訳(メタデータ) (2024-06-19T16:42:04Z) - Feature CAM: Interpretable AI in Image Classification [2.4409988934338767]
セキュリティ、金融、健康、製造業など、重要かつ高精度な分野で人工知能を使用するという信頼の欠如がある。
本稿では,摂動・活性化の組み合わせに該当する特徴CAM(Feature CAM)を提案する。
その結果, ABMの3~4倍の精度が得られた。
論文 参考訳(メタデータ) (2024-03-08T20:16:00Z) - Exploring Geometry of Blind Spots in Vision Models [56.47644447201878]
CNNやトランスフォーマーのような視覚モデルにおける過敏性の現象について検討する。
本稿では,入力空間に対する信頼度の高い領域を反復的に探索するレベルセットトラバースアルゴリズムを提案する。
モデルが高い信頼度を維持するこれらの連結高次元領域の範囲を推定する。
論文 参考訳(メタデータ) (2023-10-30T18:00:33Z) - Divergences in Color Perception between Deep Neural Networks and Humans [3.0315685825606633]
我々はディープニューラルネットワーク(DNN)におけるカラー埋め込みの知覚的コヒーレンスを評価する実験を開発した。
これらのアルゴリズムがオンライン調査によって収集された人間の色類似性判定の精度を評価する。
本研究では,ウェーブレット分解に基づく色知覚モデルとDNN性能を比較した。
論文 参考訳(メタデータ) (2023-09-11T20:26:40Z) - Iris super-resolution using CNNs: is photo-realism important to iris
recognition? [67.42500312968455]
特に畳み込みニューラルネットワーク(CNN)を用いた単一画像超解像技術が出現している
本研究では, 虹彩認識のためのCNNを用いて, 単一画像の超解像を探索する。
彼らは、近赤外線虹彩画像の1.872のデータベースと携帯電話画像データベースのアプローチを検証する。
論文 参考訳(メタデータ) (2022-10-24T11:19:18Z) - Visual Recognition with Deep Nearest Centroids [57.35144702563746]
我々は、概念的にエレガントで驚くほど効果的な大規模視覚認識ネットワークである深部セントロイド(DNC)を考案した。
パラメトリックと比較すると、DNCは画像分類(CIFAR-10, ImageNet)に優れ、画像認識(ADE20K, Cityscapes)を大いに起動する。
論文 参考訳(メタデータ) (2022-09-15T15:47:31Z) - Do DNNs trained on Natural Images acquire Gestalt Properties? [0.6091702876917281]
人間の視覚の魅力的なモデルとして、自然画像に基づいて訓練されたディープニューラルネットワーク(DNN)が提案されている。
差別判断において人間とDNNの反応を比較した。
その結果, 自然画像に基づいてトレーニングしたネットワークは, 分類の最終段階において, 形状に敏感であることがわかった。
論文 参考訳(メタデータ) (2022-03-14T17:06:11Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Assessing The Importance Of Colours For CNNs In Object Recognition [70.70151719764021]
畳み込みニューラルネットワーク(CNN)は相反する性質を示すことが示されている。
CNNが予測をしながら色情報に大きく依存していることを実証します。
congruent, greyscale, incongruent画像の合同画像で学習したモデルを評価する。
論文 参考訳(メタデータ) (2020-12-12T22:55:06Z) - The shape and simplicity biases of adversarially robust ImageNet-trained
CNNs [9.707679445925516]
本稿では,AlexNet,GoogLeNet,ResNet-50モデルの汎用性を実現するための形状バイアスと内部機構について検討する。
興味深いことに、敵の訓練はCNNの「不正化」過程において隠れたニューロンに3つの単純バイアスを誘導する。
論文 参考訳(メタデータ) (2020-06-16T16:38:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。