論文の概要: Investigating the Gestalt Principle of Closure in Deep Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2411.00627v1
- Date: Fri, 01 Nov 2024 14:36:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:50:07.085799
- Title: Investigating the Gestalt Principle of Closure in Deep Convolutional Neural Networks
- Title(参考訳): 深部畳み込みニューラルネットワークにおける閉包のゲシュタルト原理の検討
- Authors: Yuyan Zhang, Derya Soydaner, Fatemeh Behrad, Lisa Koßmann, Johan Wagemans,
- Abstract要約: 本研究では,畳み込みニューラルネットワークにおける閉鎖原理について検討する。
端部を段階的に除去した単純な視覚刺激を用いた実験を行った。
我々は、不完全ポリゴンを分類する能力に基づいて、よく知られたネットワークを評価する。
- 参考スコア(独自算出の注目度): 4.406699323036466
- License:
- Abstract: Deep neural networks perform well in object recognition, but do they perceive objects like humans? This study investigates the Gestalt principle of closure in convolutional neural networks. We propose a protocol to identify closure and conduct experiments using simple visual stimuli with progressively removed edge sections. We evaluate well-known networks on their ability to classify incomplete polygons. Our findings reveal a performance degradation as the edge removal percentage increases, indicating that current models heavily rely on complete edge information for accurate classification. The data used in our study is available on Github.
- Abstract(参考訳): ディープニューラルネットワークは、物体認識においてよく機能するが、人間のような物体を知覚するだろうか?
本研究では,畳み込みニューラルネットワークにおける閉包のゲシュタルト原理について検討する。
本稿では, エッジセクションを段階的に除去した単純な視覚刺激を用いて, クロージャを識別し, 実験を行うプロトコルを提案する。
我々は、不完全ポリゴンを分類する能力に基づいて、よく知られたネットワークを評価する。
その結果, エッジ除去率の増加に伴って性能劣化がみられ, 現在のモデルでは, 正確な分類のために, 完全エッジ情報に大きく依存していることが示唆された。
この調査で使用されたデータはGithubで公開されている。
関連論文リスト
- Residual Random Neural Networks [0.0]
ランダムな重みを持つ単層フィードフォワードニューラルネットワークは、ニューラルネットワークの文献の中で繰り返されるモチーフである。
隠れたニューロンの数がデータサンプルの次元と等しくない場合でも,優れた分類結果が得られることを示す。
論文 参考訳(メタデータ) (2024-10-25T22:00:11Z) - Finding Closure: A Closer Look at the Gestalt Law of Closure in Convolutional Neural Networks [4.406699323036466]
クロージャは、フィギュアを完全な全体として知覚するギャップを埋める能力である。
最近の研究では、ニューラルネットワークにおけるクロージャ効果が研究されている。
我々は、モーダルとアモーダルの両方を含むクロージャ効果をテストするために、よく計算されたデータセットを導入します。
VGG16とDenseNet-121はクロージャ効果を示し,他のCNNは可変結果を示した。
論文 参考訳(メタデータ) (2024-08-22T14:59:37Z) - Theoretical Characterization of How Neural Network Pruning Affects its
Generalization [131.1347309639727]
この研究は、異なるプルーニング率がモデルの勾配降下ダイナミクスと一般化にどのように影響するかを研究する最初の試みである。
プルーニング率が一定の閾値以下である限り、勾配降下はトレーニング損失をゼロに導くことができる。
より驚くべきことに、プルーニング分数が大きくなるにつれて、一般化境界はより良くなる。
論文 参考訳(メタデータ) (2023-01-01T03:10:45Z) - Affordance detection with Dynamic-Tree Capsule Networks [5.847547503155588]
視覚入力からの精度検出は、自律的なロボット操作の基本的なステップである。
疎3次元点雲のための動的木構造カプセルをベースとした第1次空隙検出ネットワークを提案する。
このアルゴリズムは、未確認物体の把握に直面する場合、現在の空き検出方法よりも優れている。
論文 参考訳(メタデータ) (2022-11-09T21:14:08Z) - SAR Despeckling Using Overcomplete Convolutional Networks [53.99620005035804]
スペックルはSAR画像を劣化させるため、リモートセンシングにおいて重要な問題である。
近年の研究では、畳み込みニューラルネットワーク(CNN)が古典的解法よりも優れていることが示されている。
本研究は、受容場を制限することで低レベルの特徴を学習することに集中するために、過剰なCNNアーキテクチャを用いる。
本稿では,合成および実SAR画像の非特定化手法と比較して,提案手法により非特定化性能が向上することを示す。
論文 参考訳(メタデータ) (2022-05-31T15:55:37Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Redundant representations help generalization in wide neural networks [71.38860635025907]
様々な最先端の畳み込みニューラルネットワークの最後に隠された層表現について検討する。
最後に隠された表現が十分に広ければ、そのニューロンは同一の情報を持つグループに分裂し、統計的に独立したノイズによってのみ異なる傾向にある。
論文 参考訳(メタデータ) (2021-06-07T10:18:54Z) - Leveraging Sparse Linear Layers for Debuggable Deep Networks [86.94586860037049]
学習した深い特徴表現に疎い線形モデルを適用することで、よりデバッグ可能なニューラルネットワークを実現する方法を示す。
その結果、スパースな説明は、スプリアス相関を特定し、誤分類を説明し、視覚および言語タスクにおけるモデルバイアスを診断するのに役立ちます。
論文 参考訳(メタデータ) (2021-05-11T08:15:25Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Revisiting Edge Detection in Convolutional Neural Networks [3.5281112495479245]
ニューラルネットワークの第1畳み込み層においてエッジを適切に表現することはできないことを示す。
エッジ検出ユニットを提案し,性能損失を低減し,定性的に異なる表現を生成することを示す。
論文 参考訳(メタデータ) (2020-12-25T13:53:04Z) - A Deep Conditioning Treatment of Neural Networks [37.192369308257504]
本研究では,入力データの特定のカーネル行列の条件付けを改善することにより,ニューラルネットワークのトレーニング性を向上させることを示す。
ニューラルネットワークの上位層のみのトレーニングと、ニューラルネットワークのタンジェントカーネルを通じてすべてのレイヤをトレーニングするための学習を行うためのバージョンを提供しています。
論文 参考訳(メタデータ) (2020-02-04T20:21:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。