論文の概要: Deep Neural Networks Can Learn Generalizable Same-Different Visual
Relations
- arxiv url: http://arxiv.org/abs/2310.09612v1
- Date: Sat, 14 Oct 2023 16:28:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 19:33:10.615915
- Title: Deep Neural Networks Can Learn Generalizable Same-Different Visual
Relations
- Title(参考訳): ディープニューラルネットワークは、一般化可能な同じ異なる視覚関係を学習できる
- Authors: Alexa R. Tartaglini, Sheridan Feucht, Michael A. Lepori, Wai Keen
Vong, Charles Lovering, Brenden M. Lake, and Ellie Pavlick
- Abstract要約: 我々は、ディープニューラルネットワークが、分布内と分布外の両方において、同じ微分関係を取得および一般化できるかどうかを検討する。
ある事前学習された変換器は、ほぼ完全な精度で分布外刺激に一般化する同じ微分関係を学習できる。
- 参考スコア(独自算出の注目度): 22.205838756057314
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although deep neural networks can achieve human-level performance on many
object recognition benchmarks, prior work suggests that these same models fail
to learn simple abstract relations, such as determining whether two objects are
the same or different. Much of this prior work focuses on training
convolutional neural networks to classify images of two same or two different
abstract shapes, testing generalization on within-distribution stimuli. In this
article, we comprehensively study whether deep neural networks can acquire and
generalize same-different relations both within and out-of-distribution using a
variety of architectures, forms of pretraining, and fine-tuning datasets. We
find that certain pretrained transformers can learn a same-different relation
that generalizes with near perfect accuracy to out-of-distribution stimuli.
Furthermore, we find that fine-tuning on abstract shapes that lack texture or
color provides the strongest out-of-distribution generalization. Our results
suggest that, with the right approach, deep neural networks can learn
generalizable same-different visual relations.
- Abstract(参考訳): ディープニューラルネットワークは、多くのオブジェクト認識ベンチマークで人間レベルのパフォーマンスを達成することができるが、以前の研究は、これらのモデルが2つのオブジェクトが同じか異なるかなどの単純な抽象的関係を学習できないことを示唆していた。
この以前の研究の多くは、2つの異なる抽象形状の画像を分類するために畳み込みニューラルネットワークを訓練することに焦点を当て、分布内刺激の一般化をテストする。
本稿では,ディープニューラルネットワークが,さまざまなアーキテクチャ,事前学習形式,微調整データセットを用いて,分散内外における同一性関係を取得・一般化できるかどうかを包括的に検討する。
ある事前学習された変換器は、ほぼ完全な精度で分布外刺激に一般化する同じ微分関係を学習できる。
さらに,テクスチャや色彩を欠く抽象形状の微調整が,最も強い分散一般化をもたらすことがわかった。
その結果、ディープニューラルネットワークは、正しいアプローチで、一般化可能な同じ異なる視覚関係を学習できることが示唆された。
関連論文リスト
- Expressivity of Neural Networks with Random Weights and Learned Biases [44.02417750529102]
最近の研究は、任意の関数がパラメータの小さな部分集合をチューニングすることによって同様に学習できることを示し、普遍近似の境界を推し進めている。
ランダムな重みを固定したフィードフォワードニューラルネットワークが、バイアスのみを学習することによって複数のタスクを実行することができることを示す理論的および数値的なエビデンスを提供する。
我々の結果は神経科学に関係しており、シナプスの重みを変えることなく動的に行動に関連のある変化が起こる可能性を実証している。
論文 参考訳(メタデータ) (2024-07-01T04:25:49Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - On Privileged and Convergent Bases in Neural Network Representations [7.888192939262696]
WideResNetsのような広帯域ネットワークにおいても、ニューラルネットワークは独自の基盤に収束しないことを示す。
また,ベース相関の尺度として研究されている線形モード接続性の解析を行った。
論文 参考訳(メタデータ) (2023-07-24T17:11:39Z) - Quasi-orthogonality and intrinsic dimensions as measures of learning and
generalisation [55.80128181112308]
ニューラルネットワークの特徴空間の次元性と準直交性は、ネットワークの性能差別と共同して機能する可能性があることを示す。
本研究は, ネットワークの最終的な性能と, ランダムに初期化された特徴空間の特性との関係を示唆する。
論文 参考訳(メタデータ) (2022-03-30T21:47:32Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Similarity and Matching of Neural Network Representations [0.0]
我々は、深層ニューラルネットワークにおける表現の類似性を分析するために、Frankenstein博士と呼ばれるツールセットを使用します。
我々は、2つのトレーニングニューラルネットワークの与えられた層上でのアクティベーションを、縫合層で結合することで一致させることを目指している。
論文 参考訳(メタデータ) (2021-10-27T17:59:46Z) - Creating Powerful and Interpretable Models withRegression Networks [2.2049183478692584]
本稿では,ニューラルネットワークのパワーと回帰分析の可視性を組み合わせた新しいアーキテクチャRegression Networksを提案する。
これらのモデルが,いくつかのベンチマークデータセット上での解釈可能なモデルの最先端性能を上回ることを実証する。
論文 参考訳(メタデータ) (2021-07-30T03:37:00Z) - What can linearized neural networks actually say about generalization? [67.83999394554621]
ある無限大のニューラルネットワークにおいて、ニューラル・タンジェント・カーネル(NTK)理論は一般化を完全に特徴づける。
線形近似は、ニューラルネットワークの特定のタスクの学習複雑性を確実にランク付けできることを示す。
我々の研究は、将来の理論的研究を刺激する新しい深層学習現象の具体例を提供する。
論文 参考訳(メタデータ) (2021-06-12T13:05:11Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Neural Rule Ensembles: Encoding Sparse Feature Interactions into Neural
Networks [3.7277730514654555]
決定木を用いて、関連する特徴とその相互作用をキャプチャし、抽出した関係をニューラルネットワークにエンコードするマッピングを定義する。
同時に、機能選択により、アートツリーベースのアプローチの状況と比較して、コンパクトな表現の学習が可能になる。
論文 参考訳(メタデータ) (2020-02-11T11:22:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。