論文の概要: Robustified ANNs Reveal Wormholes Between Human Category Percepts
- arxiv url: http://arxiv.org/abs/2308.06887v1
- Date: Mon, 14 Aug 2023 01:47:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 14:44:31.396556
- Title: Robustified ANNs Reveal Wormholes Between Human Category Percepts
- Title(参考訳): 盗聴されたANNが人間のカテゴリー認識のワームホールを発見
- Authors: Guy Gaziv, Michael J. Lee, James J. DiCarlo
- Abstract要約: 標準のANNモデルにより、小ノルム画像摂動が生成される場合、人間の対象のカテゴリパーセプションは確かに非常に安定であることを示す。
この「人間推定安定」体制では、ANNの強固化は、人間の知覚を強く妨害する低ノルム画像の摂動を確実に発見することを発見した。
- 参考スコア(独自算出の注目度): 6.116090006298261
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The visual object category reports of artificial neural networks (ANNs) are
notoriously sensitive to tiny, adversarial image perturbations. Because human
category reports (aka human percepts) are thought to be insensitive to those
same small-norm perturbations -- and locally stable in general -- this argues
that ANNs are incomplete scientific models of human visual perception.
Consistent with this, we show that when small-norm image perturbations are
generated by standard ANN models, human object category percepts are indeed
highly stable. However, in this very same "human-presumed-stable" regime, we
find that robustified ANNs reliably discover low-norm image perturbations that
strongly disrupt human percepts. These previously undetectable human perceptual
disruptions are massive in amplitude, approaching the same level of sensitivity
seen in robustified ANNs. Further, we show that robustified ANNs support
precise perceptual state interventions: they guide the construction of low-norm
image perturbations that strongly alter human category percepts toward specific
prescribed percepts. These observations suggest that for arbitrary starting
points in image space, there exists a set of nearby "wormholes", each leading
the subject from their current category perceptual state into a semantically
very different state. Moreover, contemporary ANN models of biological visual
processing are now accurate enough to consistently guide us to those portals.
- Abstract(参考訳): 人工ニューラルネットワーク(ANN)の視覚オブジェクトカテゴリレポートは、小さな対向的な画像摂動に対して非常に敏感である。
人間のカテゴリー報告(いわゆる人間の知覚)は、同じ小さな北の摂動に無神経であり、局所的に安定しているため、ANNは人間の視覚知覚の不完全な科学的モデルであると主張する。
これとは対照的に、標準のANNモデルによって小さなノーム画像摂動が生成される場合、人間の対象のカテゴリパーセプションは非常に安定であることを示す。
しかし、この全く同じ「人間が想定する安定な」体制では、ANNは人間の知覚を強く妨害する低ノルム画像の摂動を確実に発見する。
これらの検出不能な人間の知覚障害は振幅が大きく、ANNで見られるのと同じレベルの感度に近づいている。
さらに, 頑健化ANNが正確な知覚状態の介入を支援することを示し, 人間のカテゴリ知覚を特定の知覚に強く変化させる低ノルム画像摂動の構築を導く。
これらの観測から、画像空間の任意の開始点に対して、近傍の「ワームホール」の集合が存在し、それぞれが現在のカテゴリ知覚状態から意味的に全く異なる状態へと主題を導くことが示唆される。
さらに、現代の生物学的視覚処理のANNモデルは、常にそれらのポータルに導くのに十分正確である。
関連論文リスト
- HumanRefiner: Benchmarking Abnormal Human Generation and Refining with Coarse-to-fine Pose-Reversible Guidance [80.97360194728705]
AbHumanは、解剖学的異常に焦点を当てた最初の大規模なヒトのベンチマークである。
HumanRefinerは、テキスト・ツー・イメージ生成における人間の異常の粗い微細化のための新しいプラグ・アンド・プレイアプローチである。
論文 参考訳(メタデータ) (2024-07-09T15:14:41Z) - Leveraging the Human Ventral Visual Stream to Improve Neural Network Robustness [8.419105840498917]
人間の物体認識は、乱雑でダイナミックな視覚環境において顕著なレジリエンスを示す。
多くの視覚的タスクにまたがるパフォーマンスにもかかわらず、Deep Neural Networks(DNN)は人間よりもはるかに堅牢である。
ここでは,人間の腹側視覚ストリームの階層的な領域から神経表現によって誘導されたDNNが,敵の攻撃に対する堅牢性を高めていることを示す。
論文 参考訳(メタデータ) (2024-05-04T04:33:20Z) - Guiding Visual Attention in Deep Convolutional Neural Networks Based on
Human Eye Movements [0.0]
ディープ畳み込みニューラルネットワーク(DCNN)は、当初は生物学的ビジョンの原理にインスパイアされていた。
近年のディープラーニングの進歩は、この類似性を減らしているようだ。
有用なモデルを得るための純粋にデータ駆動型アプローチについて検討する。
論文 参考訳(メタデータ) (2022-06-21T17:59:23Z) - Do DNNs trained on Natural Images acquire Gestalt Properties? [0.6091702876917281]
人間の視覚の魅力的なモデルとして、自然画像に基づいて訓練されたディープニューラルネットワーク(DNN)が提案されている。
差別判断において人間とDNNの反応を比較した。
その結果, 自然画像に基づいてトレーニングしたネットワークは, 分類の最終段階において, 形状に敏感であることがわかった。
論文 参考訳(メタデータ) (2022-03-14T17:06:11Z) - On the benefits of robust models in modulation recognition [53.391095789289736]
畳み込み層を用いたディープニューラルネットワーク(DNN)は、通信における多くのタスクにおいて最先端である。
画像分類のような他の領域では、DNNは敵の摂動に弱いことが示されている。
最新モデルの堅牢性をテストするための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-27T19:58:06Z) - Bio-inspired Robustness: A Review [46.817006169430265]
深層畳み込みニューラルネットワーク(dcnn)はコンピュータビジョンに革命をもたらし、しばしば人間の視覚システムの良いモデルとして主張されている。
しかし、現在DCNNには多くの欠点があり、人間の視覚のモデルとして利用できない。
論文 参考訳(メタデータ) (2021-03-16T18:20:29Z) - Universal Adversarial Perturbations Through the Lens of Deep
Steganography: Towards A Fourier Perspective [78.05383266222285]
人間の知覚不能な摂動は、ほとんどの画像のディープニューラルネットワーク(DNN)をだますために生成することができる。
ディープステガノグラフィタスクでは同様の現象が観測されており、デコーダネットワークはわずかに乱れたカバー画像から秘密の画像を取得することができる。
1)攻撃と隠蔽を同時に行うユニバーサル・シークレット・アドバイサル・パーターベーション(USAP)、(2)人間の目では見えないハイパスUAP(HP-UAP)の2つの新しい変種を提案する。
論文 参考訳(メタデータ) (2021-02-12T12:26:39Z) - Fooling the primate brain with minimal, targeted image manipulation [67.78919304747498]
本稿では、行動に反映される神経活動と知覚の両方の変化をもたらす、最小限の標的画像摂動を生成するための一連の手法を提案する。
我々の研究は、敵対的攻撃、すなわち最小限のターゲットノイズによる画像の操作で同じ目標を共有し、ANNモデルに画像の誤分類を誘導する。
論文 参考訳(メタデータ) (2020-11-11T08:30:54Z) - Neural Networks with Recurrent Generative Feedback [61.90658210112138]
畳み込みニューラルネットワーク(CNN)でこの設計をインスタンス化する
実験では、標準ベンチマーク上の従来のフィードフォワードCNNに対して、CNN-Fは敵のロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2020-07-17T19:32:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。