論文の概要: To Which Out-Of-Distribution Object Orientations Are DNNs Capable of
Generalizing?
- arxiv url: http://arxiv.org/abs/2109.13445v1
- Date: Tue, 28 Sep 2021 02:48:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-30 01:41:14.997967
- Title: To Which Out-Of-Distribution Object Orientations Are DNNs Capable of
Generalizing?
- Title(参考訳): DNNはどの外部分布オブジェクト指向を一般化できるのか?
- Authors: Avi Cooper, Xavier Boix, Daniel Harari, Spandan Madan, Hanspeter
Pfister, Tomotake Sasaki, Pawan Sinha
- Abstract要約: ディープニューラルネットワーク(DNN)は、トレーニングデータの分布の外側の向きのオブジェクトを認識する。
人間にとって、行動学的研究は、OoDの向きによって認識精度が変化することを示した。
一般化能力がOoD配向間でどのように分散されるかは、まだ分かっていない。
- 参考スコア(独自算出の注目度): 17.623271973275994
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The capability of Deep Neural Networks (DNNs) to recognize objects in
orientations outside the distribution of the training data, ie.
out-of-distribution (OoD) orientations, is not well understood. For humans,
behavioral studies showed that recognition accuracy varies across OoD
orientations, where generalization is much better for some orientations than
for others. In contrast, for DNNs, it remains unknown how generalization
abilities are distributed among OoD orientations. In this paper, we investigate
the limitations of DNNs' generalization capacities by systematically inspecting
patterns of success and failure of DNNs across OoD orientations. We use an
intuitive and controlled, yet challenging learning paradigm, in which some
instances of an object category are seen at only a few geometrically restricted
orientations, while other instances are seen at all orientations. The effect of
data diversity is also investigated by increasing the number of instances seen
at all orientations in the training set. We present a comprehensive analysis of
DNNs' generalization abilities and limitations for representative architectures
(ResNet, Inception, DenseNet and CORnet). Our results reveal an intriguing
pattern -- DNNs are only capable of generalizing to instances of objects that
appear like 2D, ie. in-plane, rotations of in-distribution orientations.
- Abstract(参考訳): Deep Neural Networks(DNN)は、トレーニングデータの分布外の方向のオブジェクトを認識できる。
out-of-distribution (ood) の向きはよく理解されていない。
ヒトの場合、行動研究は認識精度がオードの向きによって異なることを示し、そこでは一般化が他の向きよりもはるかに優れていることを示した。
対照的に、DNNでは、OoD配向間で一般化能力がどのように分散されているかは不明である。
本稿では,DNN の成功パターンと失敗パターンを OoD の向きによって体系的に調べることにより,DNN の一般化能力の限界について検討する。
我々は直感的で制御されながら難しい学習パラダイムを使用し、オブジェクトカテゴリのいくつかのインスタンスは幾何的に制限された向きでしか見えず、他のインスタンスはあらゆる方向で見えます。
データ多様性の影響は、トレーニングセットのすべての方向に見られるインスタンス数の増加によっても調べられる。
本稿では,DNNの一般化能力と代表アーキテクチャ(ResNet,Inception,DenseNet,CORnet)の制約を包括的に分析する。
DNNは2Dのように見えるオブジェクトのインスタンスにのみ一般化できるのです。
面内、分布方向の回転。
関連論文リスト
- Revealing Bias Formation in Deep Neural Networks Through the Geometric Mechanisms of Human Visual Decoupling [9.609083308026786]
ディープニューラルネットワーク(DNN)はしばしば、オブジェクト認識中に特定のカテゴリに対するバイアスを示す。
本稿では,クラス固有の知覚多様体の幾何学的複雑さをモデルバイアスにリンクする幾何学的解析フレームワークを提案する。
本稿では,知覚多様体の幾何学的性質を計算するために設計された知覚多様体幾何学ライブラリを提案する。
論文 参考訳(メタデータ) (2025-02-17T13:54:02Z) - Discovering Chunks in Neural Embeddings for Interpretability [53.80157905839065]
本稿では, チャンキングの原理を応用して, 人工神経集団活動の解釈を提案する。
まず、この概念を正則性を持つ人工シーケンスを訓練したリカレントニューラルネットワーク(RNN)で実証する。
我々は、これらの状態に対する摂動が関連する概念を活性化または阻害すると共に、入力における概念に対応する同様の繰り返し埋め込み状態を特定する。
論文 参考訳(メタデータ) (2025-02-03T20:30:46Z) - An Analysis Framework for Understanding Deep Neural Networks Based on Network Dynamics [11.44947569206928]
ディープニューラルネットワーク(DNN)は、ディープ層にまたがる異なるモードのニューロンの割合を合理的に割り当てることで、情報抽出を最大化する。
このフレームワークは、"フラット・ミニマ効果(flat minima effect)"、"グロッキング(grokking)"、二重降下現象(double descend phenomena)など、基本的なDNNの振る舞いについて統一的な説明を提供する。
論文 参考訳(メタデータ) (2025-01-05T04:23:21Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Transferability of coVariance Neural Networks and Application to
Interpretable Brain Age Prediction using Anatomical Features [119.45320143101381]
グラフ畳み込みネットワーク(GCN)は、トポロジー駆動のグラフ畳み込み演算を利用して、推論タスクのためにグラフをまたいだ情報を結合する。
我々は、共分散行列をグラフとして、共分散ニューラルネットワーク(VNN)の形でGCNを研究した。
VNNは、GCNからスケールフリーなデータ処理アーキテクチャを継承し、ここでは、共分散行列が極限オブジェクトに収束するデータセットに対して、VNNが性能の転送可能性を示すことを示す。
論文 参考訳(メタデータ) (2023-05-02T22:15:54Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Towards interpreting computer vision based on transformation invariant
optimization [10.820985444099536]
本研究では、ニューラルネットワークをターゲットクラスに活性化できる可視化画像を、バックプロパゲーション法により生成する。
このような手法がニューラルネットワークの洞察を得るのに役立つケースがいくつかある。
論文 参考訳(メタデータ) (2021-06-18T08:04:10Z) - What can linearized neural networks actually say about generalization? [67.83999394554621]
ある無限大のニューラルネットワークにおいて、ニューラル・タンジェント・カーネル(NTK)理論は一般化を完全に特徴づける。
線形近似は、ニューラルネットワークの特定のタスクの学習複雑性を確実にランク付けできることを示す。
我々の研究は、将来の理論的研究を刺激する新しい深層学習現象の具体例を提供する。
論文 参考訳(メタデータ) (2021-06-12T13:05:11Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Role Taxonomy of Units in Deep Neural Networks [15.067182415076148]
ディープニューラルネットワーク(DNN)におけるネットワークユニットの役割を,検索・オブ・ファンクションテストを通じて同定する。
これら4つのカテゴリーの比率は、2つの異なる視点からDNNの一般化能力と強く関連していることを示す。
論文 参考訳(メタデータ) (2020-11-02T07:37:31Z) - Learning Intermediate Features of Object Affordances with a
Convolutional Neural Network [1.52292571922932]
我々は深層畳み込みニューラルネットワーク(CNN)を訓練し、画像から手当を認識し、その基盤となる特徴や手当の寸法を知る。
我々は、この表現分析を、人間がどのように環境を知覚し、どのように相互作用するかを、よりフォーマルに説明するための第一歩であると考えている。
論文 参考訳(メタデータ) (2020-02-20T19:04:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。