論文の概要: A biological vision inspired framework for machine perception of abutting grating illusory contours
- arxiv url: http://arxiv.org/abs/2508.17254v1
- Date: Sun, 24 Aug 2025 08:45:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.427044
- Title: A biological vision inspired framework for machine perception of abutting grating illusory contours
- Title(参考訳): 生体視覚による当接照明輪郭の機械的知覚の枠組み
- Authors: Xiao Zhang, Kai-Fu Yang, Xian-Shi Zhang, Hong-Zhi You, Hong-Mei Yan, Yong-Jie Li,
- Abstract要約: 本稿では,視覚野の回路にインスパイアされた視覚輪郭知覚ネットワーク(ICPNet)を提案する。
ICPNetは、最先端のモデルよりも、照明の輪郭に対してはるかに敏感である。
この研究は、DNNベースのモデルのための人間レベルのインテリジェンスへの一歩として期待されている。
- 参考スコア(独自算出の注目度): 18.878362495655598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Higher levels of machine intelligence demand alignment with human perception and cognition. Deep neural networks (DNN) dominated machine intelligence have demonstrated exceptional performance across various real-world tasks. Nevertheless, recent evidence suggests that DNNs fail to perceive illusory contours like the abutting grating, a discrepancy that misaligns with human perception patterns. Departing from previous works, we propose a novel deep network called illusory contour perception network (ICPNet) inspired by the circuits of the visual cortex. In ICPNet, a multi-scale feature projection (MFP) module is designed to extract multi-scale representations. To boost the interaction between feedforward and feedback features, a feature interaction attention module (FIAM) is introduced. Moreover, drawing inspiration from the shape bias observed in human perception, an edge detection task conducted via the edge fusion module (EFM) injects shape constraints that guide the network to concentrate on the foreground. We assess our method on the existing AG-MNIST test set and the AG-Fashion-MNIST test sets constructed by this work. Comprehensive experimental results reveal that ICPNet is significantly more sensitive to abutting grating illusory contours than state-of-the-art models, with notable improvements in top-1 accuracy across various subsets. This work is expected to make a step towards human-level intelligence for DNN-based models.
- Abstract(参考訳): 高いレベルのマシンインテリジェンス要求は、人間の知覚と認知と一致している。
ディープニューラルネットワーク(DNN)がマシンインテリジェンスを支配しているため、さまざまな現実世界のタスクで例外的なパフォーマンスが証明されている。
しかし、近年の証拠は、DNNが人間の知覚パターンと相違する、当惑する欲望のような錯覚的輪郭を知覚できないことを示唆している。
従来の研究とは別に,視覚野の回路にインスパイアされた視覚輪郭知覚ネットワーク (ICPNet) と呼ばれる新しいディープネットワークを提案する。
ICPNetでは、マルチスケール特徴投影(MFP)モジュールがマルチスケール表現を抽出するために設計されている。
フィードフォワードとフィードバック機能間のインタラクションを強化するために、機能インタラクションアテンションモジュール(FIAM)が導入された。
さらに、人間の知覚で観察される形状バイアスからインスピレーションを得て、エッジ融合モジュール(EFM)を介して行われるエッジ検出タスクは、ネットワークが前景に集中するように誘導する形状制約を注入する。
本研究により構築された既存のAG-MNISTテストセットとAG-Fashion-MNISTテストセットについて評価を行った。
総合的な実験結果から、ICPNetは、最先端のモデルよりも光沢のある光沢のある輪郭を打つことにかなり敏感であり、様々なサブセットでトップ1の精度が顕著に向上していることが明らかとなった。
この研究は、DNNベースのモデルのための人間レベルのインテリジェンスへの一歩として期待されている。
関連論文リスト
- Representation Understanding via Activation Maximization [13.88866465448849]
本稿では、畳み込みニューラルネットワーク(CNN)と視覚変換器(ViT)の両方に適用可能な統合された特徴可視化フレームワークを提案する。
従来のCNNと現代のViTの両方において、我々のアプローチの有効性を実証し、その一般化可能性と価値を強調した。
論文 参考訳(メタデータ) (2025-08-10T10:36:30Z) - Concept-Guided Interpretability via Neural Chunking [54.73787666584143]
ニューラルネットワークは、トレーニングデータの規則性を反映した生の集団活動のパターンを示す。
本稿では,ラベルの可利用性と次元性に基づいて,これら新たな実体を抽出する3つの手法を提案する。
私たちの研究は、認知原則と自然主義的データの構造の両方を活用する、解釈可能性の新しい方向性を指し示しています。
論文 参考訳(メタデータ) (2025-05-16T13:49:43Z) - Multilinear Operator Networks [60.7432588386185]
ポリノミアルネットワーク(Polynomial Networks)は、アクティベーション関数を必要としないモデルのクラスである。
マルチリニア演算子のみに依存するMONetを提案する。
論文 参考訳(メタデータ) (2024-01-31T16:52:19Z) - Manipulating Feature Visualizations with Gradient Slingshots [53.94925202421929]
特徴可視化(FV)は、ディープニューラルネットワーク(DNN)で学んだ概念を解釈するための広く使われている手法である。
本稿では,モデルアーキテクチャを変更したり,性能を著しく劣化させたりすることなくFVの操作を可能にする新しい手法,Gradient Slingshotsを提案する。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Understanding Self-attention Mechanism via Dynamical System Perspective [58.024376086269015]
SAM(Self-attention mechanism)は、人工知能の様々な分野で広く使われている。
常微分方程式(ODE)の高精度解における固有剛性現象(SP)は,高性能ニューラルネットワーク(NN)にも広く存在することを示す。
SAMは、本質的なSPを測定するためのモデルの表現能力を高めることができる剛性対応のステップサイズ適応器でもあることを示す。
論文 参考訳(メタデータ) (2023-08-19T08:17:41Z) - Multi-level Data Representation For Training Deep Helmholtz Machines [0.0]
我々は,Human Image Perception 機構を用いて,複雑な検索空間において,Helmholtz Machine と呼ばれる生物学的に妥当な生成モデルの学習を指導する。
我々は,マルチレベルデータ表現を用いて,異なる解像度の視覚的キューをネットワークの隠蔽層に提供することで,この問題を解決することを提案する。
いくつかの画像データセットの結果は、モデルがより優れた全体的な品質を得るだけでなく、生成された画像のより広範な多様性を得ることができることを示した。
論文 参考訳(メタデータ) (2022-10-26T16:55:40Z) - Model LEGO: Creating Models Like Disassembling and Assembling Building Blocks [53.09649785009528]
本稿では,新しいモデルを得るためのトレーニングを必要としないパラダイムについて検討する。
生体視覚系における受容野にインスパイアされたCNNの誕生と同様、モデル分解と組み立てを提案する。
モデル組立には、特定のタスクに適した新しいモデルを構築するために、アライメントパディング戦略とパラメータスケーリング戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T05:27:28Z) - Network Comparison Study of Deep Activation Feature Discriminability
with Novel Objects [0.5076419064097732]
最先端のコンピュータビジョンアルゴリズムは、Deep Neural Networks(DNN)を特徴抽出に取り入れ、Deep Convolutional Activation Features(DeCAF)を作成する。
本研究では、6つの主要な視覚認識DNNアーキテクチャのDeCAF空間に符号化された新しい物体の視覚的外観の一般的な識別可能性について分析する。
論文 参考訳(メタデータ) (2022-02-08T07:40:53Z) - MMLatch: Bottom-up Top-down Fusion for Multimodal Sentiment Analysis [84.7287684402508]
マルチモーダル融合に対する最近のディープラーニングアプローチは、ハイレベルおよびミドルレベルの潜在モダリティ表現のボトムアップ融合に依存している。
人間の知覚モデルでは、高レベルの表現が感覚入力の知覚に影響を及ぼすトップダウン融合の重要性を強調している。
本稿では,ネットワークトレーニング中のフォワードパスにおけるフィードバック機構を用いて,トップダウンのクロスモーダルインタラクションをキャプチャするニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-01-24T17:48:04Z) - Towards Interpretable Deep Networks for Monocular Depth Estimation [78.84690613778739]
我々は,深部MDEネットワークの解釈可能性について,その隠蔽ユニットの深さ選択性を用いて定量化する。
本稿では,解釈可能なMDE深層ネットワークを,元のアーキテクチャを変更することなく学習する手法を提案する。
実験により,本手法は深部MDEネットワークの解釈可能性を向上させることができることが示された。
論文 参考訳(メタデータ) (2021-08-11T16:43:45Z) - Learning Multiplicative Interactions with Bayesian Neural Networks for
Visual-Inertial Odometry [44.209301916028124]
本稿では,視覚慣性オドメトリー(VIO)のためのエンドツーエンドマルチモーダル学習手法を提案する。
センサ劣化シナリオに照らして、センサの相補性を利用するように設計されている。
論文 参考訳(メタデータ) (2020-07-15T11:39:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。