論文の概要: A Developmentally-Inspired Examination of Shape versus Texture Bias in
Machines
- arxiv url: http://arxiv.org/abs/2202.08340v1
- Date: Wed, 16 Feb 2022 21:15:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-19 05:24:00.933545
- Title: A Developmentally-Inspired Examination of Shape versus Texture Bias in
Machines
- Title(参考訳): 機械の形状とテクスチャバイアスの発達的インスパイアによる検討
- Authors: Alexa R. Tartaglini, Wai Keen Vong, Brenden M. Lake
- Abstract要約: 発達初期の子どもたちは、新しいカテゴリーラベルを同じ形状のオブジェクトに拡張することを学ぶ。
深層ニューラルネットワークは、相反する形状とテクスチャの手がかりを持つ画像を構築することで、形状またはテクスチャバイアスを示す。
我々は、Geirhosらによる刺激と手順を適応させることにより、ニューラルネットワークの誘導バイアスを再検討する。
深層ニューラルネットワークは、発達過程をより密に再現する条件下でテストした場合、テクスチャよりも形状を好みます。
- 参考スコア(独自算出の注目度): 15.813217907813778
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Early in development, children learn to extend novel category labels to
objects with the same shape, a phenomenon known as the shape bias. Inspired by
these findings, Geirhos et al. (2019) examined whether deep neural networks
show a shape or texture bias by constructing images with conflicting shape and
texture cues. They found that convolutional neural networks strongly preferred
to classify familiar objects based on texture as opposed to shape, suggesting a
texture bias. However, there are a number of differences between how the
networks were tested in this study versus how children are typically tested. In
this work, we re-examine the inductive biases of neural networks by adapting
the stimuli and procedure from Geirhos et al. (2019) to more closely follow the
developmental paradigm and test on a wide range of pre-trained neural networks.
Across three experiments, we find that deep neural networks exhibit a
preference for shape rather than texture when tested under conditions that more
closely replicate the developmental procedure.
- Abstract(参考訳): 発達初期の子供たちは、新しいカテゴリーラベルを同じ形状の物体に拡張することを学び、これは形状バイアスと呼ばれる現象である。
これらの発見に触発されて、geirhosら(2019)は、矛盾する形状とテクスチャの手がかりを持つイメージを構築して、ディープニューラルネットワークが形状やテクスチャバイアスを示すかどうかを調査した。
畳み込みニューラルネットワークは、形状ではなく、テクスチャに基づいて親しみやすい物体を分類することが強く望まれており、テクスチャバイアスが示唆されている。
しかし、この研究でテストされたネットワークと、通常テストされた子供のネットワークの間には、多くの違いがある。
本研究は,geirhosら(2019)の刺激と手順を適応させることで,ニューラルネットワークの帰納的バイアスを再検討し,より詳細な発達パラダイムに従い,多種多様な事前学習ニューラルネットワーク上でテストする。
3つの実験で、深層ニューラルネットワークは、発達過程をより密に再現する条件下でテストした場合、テクスチャよりも形状を好むことがわかった。
関連論文リスト
- Investigating the Gestalt Principle of Closure in Deep Convolutional Neural Networks [4.406699323036466]
本研究では,畳み込みニューラルネットワークにおける閉鎖原理について検討する。
端部を段階的に除去した単純な視覚刺激を用いた実験を行った。
我々は、不完全ポリゴンを分類する能力に基づいて、よく知られたネットワークを評価する。
論文 参考訳(メタデータ) (2024-11-01T14:36:21Z) - Neural Lineage [56.34149480207817]
本稿では,親子間の系統関係の発見を目的としたニューラルライン検出という新しいタスクを提案する。
実用上,ニューラルネットワーク表現類似度指標に微調整プロセスの近似を組み込んだ学習自由アプローチを導入する。
精度を追求するために,エンコーダと変圧器検出器からなる学習系系統検出装置を導入する。
論文 参考訳(メタデータ) (2024-06-17T01:11:53Z) - Emergence of Shape Bias in Convolutional Neural Networks through
Activation Sparsity [8.54598311798543]
現在の物体認識のためのディープラーニングモデルはテクスチャに大きく偏っている。
対照的に、人間の視覚系は形状や構造に偏っていることが知られている。
脳内のユビキタスな原理であるスパースコーディングは、それ自体がネットワークに形状バイアスをもたらす可能性があることを示す。
論文 参考訳(メタデータ) (2023-10-29T04:07:52Z) - Connecting metrics for shape-texture knowledge in computer vision [1.7785095623975342]
深層ニューラルネットワークは、人間が画像の分類ミスを起こさないような、画像の多くの変化の影響を受けやすいままである。
この異なる振る舞いの一部は、視覚タスクで人間とディープニューラルネットワークが使用する機能の種類によって説明できるかもしれない。
論文 参考訳(メタデータ) (2023-01-25T14:37:42Z) - Prune and distill: similar reformatting of image information along rat
visual cortex and deep neural networks [61.60177890353585]
深部畳み込み神経ネットワーク(CNN)は、脳の機能的類似、視覚野の腹側流の優れたモデルを提供することが示されている。
ここでは、CNNまたは視覚野の内部表現で知られているいくつかの顕著な統計的パターンについて考察する。
我々は、CNNと視覚野が、オブジェクト表現の次元展開/縮小と画像情報の再構成と、同様の密接な関係を持っていることを示す。
論文 参考訳(メタデータ) (2022-05-27T08:06:40Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Epigenetic evolution of deep convolutional models [81.21462458089142]
我々は、より深い畳み込みモデルを進化させるために、これまで提案されていた神経進化の枠組みを構築した。
異なる形状と大きさのカーネルを同一層内に共存させる畳み込み層配置を提案する。
提案したレイアウトにより、畳み込み層内の個々のカーネルのサイズと形状を、対応する新しい突然変異演算子で進化させることができる。
論文 参考訳(メタデータ) (2021-04-12T12:45:16Z) - Predictive coding feedback results in perceived illusory contours in a
recurrent neural network [0.0]
脳にインスパイアされたリカレントダイナミクスを備えたディープフィードフォワード畳み込みネットワークを備える。
照明輪郭の知覚にはフィードバック接続が関与する可能性が示唆された。
論文 参考訳(メタデータ) (2021-02-03T09:07:09Z) - Shape or Texture: Understanding Discriminative Features in CNNs [28.513300496205044]
最近の研究では、CNNが実際にテクスチャバイアスを持っていることが示されている」。
ネットワークは,最初の数回の訓練で,全体の形状情報の大部分を学習することを示す。
また、形状の符号化は、局所化された画素ごとのセマンティック情報の符号化を意味するものではないことを示す。
論文 参考訳(メタデータ) (2021-01-27T18:54:00Z) - Neural Networks with Recurrent Generative Feedback [61.90658210112138]
畳み込みニューラルネットワーク(CNN)でこの設計をインスタンス化する
実験では、標準ベンチマーク上の従来のフィードフォワードCNNに対して、CNN-Fは敵のロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2020-07-17T19:32:48Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。