論文の概要: Abutting Grating Illusion: Cognitive Challenge to Neural Network Models
- arxiv url: http://arxiv.org/abs/2208.03958v1
- Date: Mon, 8 Aug 2022 08:01:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-09 12:28:35.830438
- Title: Abutting Grating Illusion: Cognitive Challenge to Neural Network Models
- Title(参考訳): Abutting Grating Illusion: ニューラルネットワークモデルに対する認知的課題
- Authors: Jinyu Fan and Yi Zeng
- Abstract要約: 本稿では, 当接錯覚に基づく新しい汚職手法を提案する。
この方法は、勾配が定義された境界線を破壊し、互いに接する直線格子を用いて照明輪郭の知覚を生成する。
さまざまなディープラーニングモデルは、スクラッチからトレーニングされたモデルや、ImageNetやさまざまなデータ拡張テクニックで事前トレーニングされた109モデルなど、汚職に対してテストされている。
- 参考スコア(独自算出の注目度): 4.031522806737616
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Even the state-of-the-art deep learning models lack fundamental abilities
compared to humans. Multiple comparison paradigms have been proposed to explore
the distinctions between humans and deep learning. While most comparisons rely
on corruptions inspired by mathematical transformations, very few have bases on
human cognitive phenomena. In this study, we propose a novel corruption method
based on the abutting grating illusion, which is a visual phenomenon widely
discovered in both human and a wide range of animal species. The corruption
method destroys the gradient-defined boundaries and generates the perception of
illusory contours using line gratings abutting each other. We applied the
method on MNIST, high resolution MNIST, and silhouette object images. Various
deep learning models are tested on the corruption, including models trained
from scratch and 109 models pretrained with ImageNet or various data
augmentation techniques. Our results show that abutting grating corruption is
challenging even for state-of-the-art deep learning models because most models
are randomly guessing. We also discovered that the DeepAugment technique can
greatly improve robustness against abutting grating illusion. Visualisation of
early layers indicates that better performing models exhibit stronger
end-stopping property, which is consistent with neuroscience discoveries. To
validate the corruption method, 24 human subjects are involved to classify
samples of corrupted datasets.
- Abstract(参考訳): 最先端のディープラーニングモデルでさえ、人間と比べて基本的な能力がない。
複数の比較パラダイムが提案され、人間とディープラーニングの区別を探求している。
ほとんどの比較は数学的変換に触発された腐敗に依存しているが、人間の認知現象に基づくものはほとんどない。
本研究では,人間種と広範囲の動物種に広く見られる視覚現象である,接触グレーティング錯覚に基づく新しい腐敗法を提案する。
汚損法は勾配定義境界を破壊し、互いに接するライングレーティングを用いて照明輪郭の知覚を生成する。
本手法をMNIST,高分解能MNIST,シルエットオブジェクト画像に適用した。
さまざまなディープラーニングモデルは、スクラッチからトレーニングされたモデルや、ImageNetやさまざまなデータ拡張テクニックで事前トレーニングされた109モデルなど、汚職に対してテストされている。
その結果,ほとんどのモデルがランダムに推測しているため,最先端のディープラーニングモデルであっても,フラティングの破壊は困難であることが示唆された。
また,DeepAugment技術は,グラティング錯覚に対する堅牢性を大幅に向上させることができることがわかった。
初期のレイヤの可視化は、より優れた実行モデルがより強固なエンドストップ特性を示し、神経科学の発見と一致していることを示している。
腐敗の方法を検証するために、24人の被験者が腐敗したデータセットのサンプルを分類する。
関連論文リスト
- Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - Intriguing properties of generative classifiers [14.57861413242093]
我々は、テキストから画像へのモデルを分類器に変換する生成モデリングの進歩の上に構築する。
Imagenでは99%)、人間レベルのアウト・オブ・ディストリビューションの精度、人間の分類エラーと最先端のアライメントに近い、記録破りの人間のような形状バイアスを示しています。
以上の結果から,人間の物体認識のモデル化のパラダイムは差別的推論であるが,ゼロショット生成モデルは人間の物体認識データを驚くほどよく近似していることが示唆された。
論文 参考訳(メタデータ) (2023-09-28T18:19:40Z) - Hierarchical Contrastive Learning for Pattern-Generalizable Image
Corruption Detection [40.04083743934034]
劣化領域を検出するための階層的コントラスト学習フレームワークを開発する。
特殊な階層的相互作用機構は、異なるスケールでのコントラスト学習の知識を促進するように設計されている。
我々のモデルは様々な汚職パターンにまたがってよく一般化できる。
論文 参考訳(メタデータ) (2023-08-27T10:03:48Z) - Frequency-Based Vulnerability Analysis of Deep Learning Models against
Image Corruptions [48.34142457385199]
MUFIAは、モデルが失敗する可能性のある特定の種類の汚職を特定するために設計されたアルゴリズムである。
最先端のモデルでさえ、既知の一般的な汚職に対して堅牢であるように訓練されたモデルでさえ、MUFIAによって作られた低視認性ベースの汚職と戦っている。
論文 参考訳(メタデータ) (2023-06-12T15:19:13Z) - Degraded Polygons Raise Fundamental Questions of Neural Network
Perception [0.0]
我々は、30年以上前に人間の視覚の認識・コンポーネント理論で導入された、劣化中の画像の復元作業を再考する。
周辺劣化した正多角形の大規模データセットを高速に生成するための自動形状復元テストを実装した。
この単純なタスクにおけるニューラルネットワークの振舞いは、人間の振舞いと矛盾する。
論文 参考訳(メタデータ) (2023-06-08T06:02:39Z) - Deepfake Forensics via An Adversarial Game [99.84099103679816]
顔偽造と画像・映像品質の両面での一般化能力向上のための対人訓練を提唱する。
AIベースの顔操作は、しばしば、一般化が困難であるモデルによって容易に発見できる高周波アーティファクトにつながることを考慮し、これらの特定のアーティファクトを曖昧にしようとする新しい逆トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-03-25T02:20:08Z) - Predictive coding feedback results in perceived illusory contours in a
recurrent neural network [0.0]
脳にインスパイアされたリカレントダイナミクスを備えたディープフィードフォワード畳み込みネットワークを備える。
照明輪郭の知覚にはフィードバック接続が関与する可能性が示唆された。
論文 参考訳(メタデータ) (2021-02-03T09:07:09Z) - What Do Deep Nets Learn? Class-wise Patterns Revealed in the Input Space [88.37185513453758]
本研究では,深層ニューラルネットワーク(DNN)が学習するクラスワイズな知識を,異なる環境下で可視化し,理解する手法を提案する。
本手法は,各クラスのモデルが学習した知識を表現するために,画素空間内の1つの予測パターンを探索する。
逆境環境では、逆境に訓練されたモデルはより単純化された形状パターンを学ぶ傾向がある。
論文 参考訳(メタデータ) (2021-01-18T06:38:41Z) - Informative Dropout for Robust Representation Learning: A Shape-bias
Perspective [84.30946377024297]
Informative Dropout (InfoDrop) と呼ばれる軽量モデル非依存の手法を提案し, 解釈性の向上とテクスチャバイアスの低減を図る。
具体的には、画像中の局所的な自己情報に基づいて形状からテクスチャを識別し、Dropoutのようなアルゴリズムを用いて局所的なテクスチャからのモデル出力をデコレーションする。
論文 参考訳(メタデータ) (2020-08-10T16:52:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。