論文の概要: Exploring Geometry of Blind Spots in Vision Models
- arxiv url: http://arxiv.org/abs/2310.19889v1
- Date: Mon, 30 Oct 2023 18:00:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 18:15:49.682076
- Title: Exploring Geometry of Blind Spots in Vision Models
- Title(参考訳): 視覚モデルにおける盲点形状の探索
- Authors: Sriram Balasubramanian, Gaurang Sriramanan, Vinu Sankar Sadasivan,
Soheil Feizi
- Abstract要約: CNNやトランスフォーマーのような視覚モデルにおける過敏性の現象について検討する。
本稿では,入力空間に対する信頼度の高い領域を反復的に探索するレベルセットトラバースアルゴリズムを提案する。
モデルが高い信頼度を維持するこれらの連結高次元領域の範囲を推定する。
- 参考スコア(独自算出の注目度): 56.47644447201878
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the remarkable success of deep neural networks in a myriad of
settings, several works have demonstrated their overwhelming sensitivity to
near-imperceptible perturbations, known as adversarial attacks. On the other
hand, prior works have also observed that deep networks can be under-sensitive,
wherein large-magnitude perturbations in input space do not induce appreciable
changes to network activations. In this work, we study in detail the phenomenon
of under-sensitivity in vision models such as CNNs and Transformers, and
present techniques to study the geometry and extent of "equi-confidence" level
sets of such networks. We propose a Level Set Traversal algorithm that
iteratively explores regions of high confidence with respect to the input space
using orthogonal components of the local gradients. Given a source image, we
use this algorithm to identify inputs that lie in the same equi-confidence
level set as the source image despite being perceptually similar to arbitrary
images from other classes. We further observe that the source image is linearly
connected by a high-confidence path to these inputs, uncovering a star-like
structure for level sets of deep networks. Furthermore, we attempt to identify
and estimate the extent of these connected higher-dimensional regions over
which the model maintains a high degree of confidence. The code for this
project is publicly available at
https://github.com/SriramB-98/blindspots-neurips-sub
- Abstract(参考訳): 様々な環境でディープニューラルネットワークが顕著に成功したにもかかわらず、いくつかの研究は、敵対的攻撃として知られるほとんど知覚できない摂動に対する圧倒的な感受性を示した。
一方, 入力空間における大振幅摂動は, ネットワークアクティベーションに有意な変化を起こさないため, 深層ネットワークの感度が低いことも先行研究で確認されている。
本研究では,CNN や Transformers などの視覚モデルにおける過敏性現象を詳細に研究し,そのようなネットワークの「等価性」レベルセットの幾何と範囲を研究するための技術を提案する。
本研究では,局所勾配の直交成分を用いて入力空間に対する信頼度の高い領域を反復的に探索するレベルセットトラバーサルアルゴリズムを提案する。
ソースイメージが与えられた場合、このアルゴリズムは、他のクラスからの任意のイメージと知覚的に似ているにもかかわらず、ソースイメージと同じ同等の信頼レベルにある入力を識別する。
さらに、これらの入力に対する高信頼パスによってソースイメージが線形に接続されていることを観察し、深層ネットワークのレベルセットのための星状構造を明らかにする。
さらに,モデルが高信頼度を維持しているこれらの連結高次元領域の範囲を同定し,推定する。
このプロジェクトのコードはhttps://github.com/sriramb-98/blindspots-neurips-subで公開されている。
関連論文リスト
- Robot Localization and Mapping Final Report -- Sequential Adversarial
Learning for Self-Supervised Deep Visual Odometry [2.512491726995032]
VO(Visual odometry)とSLAM(SLAM)は、何十年にもわたって動きから局所的な構造を通して多視点幾何を用いてきた。
高レベルの特徴を抽出するディープニューラルネットワークは、コンピュータビジョンにおいてユビキタスである。
この研究の目標は、過去のアプローチのこれらの制限に対処し、より良い深さを提供し、見積もりを示す方法を開発することである。
論文 参考訳(メタデータ) (2023-09-08T06:24:17Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z) - Neural Contourlet Network for Monocular 360 Depth Estimation [37.82642960470551]
我々は360度画像の解釈可能かつスパースな表現を構築する新しい視点を提供する。
本稿では,畳み込み型ニューラルネットワークと畳み込み型トランスフォーメーションブランチからなる,畳み込み型ニューラルネットワークを提案する。
エンコーダの段階では、2種類のキューを効果的に融合させる空間スペクトル融合モジュールを設計する。
論文 参考訳(メタデータ) (2022-08-03T02:25:55Z) - FuNNscope: Visual microscope for interactively exploring the loss
landscape of fully connected neural networks [77.34726150561087]
ニューラルネットワークの高次元景観特性を探索する方法を示す。
我々は、小さなニューラルネットワークの観測結果をより複雑なシステムに一般化する。
インタラクティブダッシュボードは、いくつかのアプリケーションネットワークを開放する。
論文 参考訳(メタデータ) (2022-04-09T16:41:53Z) - Multi-attentional Deepfake Detection [79.80308897734491]
ディープフェイクによる顔の偽造はインターネットに広まり、深刻な社会的懸念を引き起こしている。
新たなマルチアテンテーショナルディープフェイク検出ネットワークを提案する。
具体的には,1)ネットワークを異なる局所的部分へ配置するための複数の空間的注意ヘッド,2)浅い特徴の微妙なアーティファクトをズームするテクスチャ的特徴拡張ブロック,3)低レベルなテクスチャ特徴と高レベルなセマンティクス特徴をアグリゲートする,の3つの構成要素からなる。
論文 参考訳(メタデータ) (2021-03-03T13:56:14Z) - An Empirical Method to Quantify the Peripheral Performance Degradation
in Deep Networks [18.808132632482103]
畳み込みニューラルネットワーク(CNN)カーネルは、各畳み込み層に結合する。
より深いネットワークとストライドベースのダウンサンプリングを組み合わせることで、この領域の伝播は、画像の無視できない部分をカバーすることができる。
我々のデータセットは、高解像度の背景にオブジェクトを挿入することで構築され、画像境界に対してターゲットオブジェクトを特定の位置に配置するサブイメージを収穫することができる。
マスクR-CNNの動作を目標位置の選択にわたって探索することにより、画像境界付近、特に画像コーナーにおいて、パフォーマンス劣化の明確なパターンが明らかになる。
論文 参考訳(メタデータ) (2020-12-04T18:00:47Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z) - Verification of Deep Convolutional Neural Networks Using ImageStars [10.44732293654293]
畳み込みニューラルネットワーク(CNN)は、多くの現実世界で最先端のアプリケーションを再定義している。
CNNは敵の攻撃に対して脆弱であり、入力のわずかな変更は出力の急激な変更につながる可能性がある。
本稿では,VGG16やVGG19などの実世界のCNNを,ImageNet上で高い精度で処理可能なセットベースフレームワークについて述べる。
論文 参考訳(メタデータ) (2020-04-12T00:37:21Z) - Learning Depth With Very Sparse Supervision [57.911425589947314]
本稿では, 環境との相互作用を通じて, 知覚が世界の3次元特性と結合するという考えを考察する。
我々は、環境と対話するロボットが利用できるような、特殊なグローバルローカルネットワークアーキテクチャを訓練する。
いくつかのデータセットの実験では、画像ピクセルの1つでも基底真理が利用できる場合、提案されたネットワークは、最先端のアプローチよりも22.5%の精度でモノクロの深度推定を学習できることを示している。
論文 参考訳(メタデータ) (2020-03-02T10:44:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。