論文の概要: Neural Dependencies Emerging from Learning Massive Categories
- arxiv url: http://arxiv.org/abs/2211.12339v1
- Date: Mon, 21 Nov 2022 09:42:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 17:09:19.894451
- Title: Neural Dependencies Emerging from Learning Massive Categories
- Title(参考訳): 大規模カテゴリの学習から生まれる神経依存
- Authors: Ruili Feng, Kecheng Zheng, Kai Zhu, Yujun Shen, Jian Zhao, Yukun
Huang, Deli Zhao, Jingren Zhou, Michael Jordan, Zheng-Jun Zha
- Abstract要約: この研究は、大規模画像分類のために学んだニューラルネットワークに関する2つの驚くべき発見を示す。
1) 十分に訓練されたモデルが与えられた場合、いくつかのカテゴリで予測されたロジットは、他のいくつかのカテゴリの予測を線形に組み合わせることで直接得ることができる。
2) 神経依存は1つのモデルに留まらず、2つの独立した学習モデルの間にさえ存在する。
- 参考スコア(独自算出の注目度): 94.77992221690742
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work presents two astonishing findings on neural networks learned for
large-scale image classification. 1) Given a well-trained model, the logits
predicted for some category can be directly obtained by linearly combining the
predictions of a few other categories, which we call \textbf{neural
dependency}. 2) Neural dependencies exist not only within a single model, but
even between two independently learned models, regardless of their
architectures. Towards a theoretical analysis of such phenomena, we demonstrate
that identifying neural dependencies is equivalent to solving the Covariance
Lasso (CovLasso) regression problem proposed in this paper. Through
investigating the properties of the problem solution, we confirm that neural
dependency is guaranteed by a redundant logit covariance matrix, which
condition is easily met given massive categories, and that neural dependency is
highly sparse, implying that one category correlates to only a few others. We
further empirically show the potential of neural dependencies in understanding
internal data correlations, generalizing models to unseen categories, and
improving model robustness with a dependency-derived regularizer. Code for this
work will be made publicly available.
- Abstract(参考訳): 本研究は,大規模画像分類で学習したニューラルネットワークについて,驚くべき2つの知見を示す。
1) 十分に訓練されたモデルが与えられた場合、あるカテゴリに対して予測されたロジットは、他のいくつかのカテゴリの予測を線形に組み合わせることで直接得られる。
2) ニューラルネットワークの依存関係は,1つのモデルだけでなく,アーキテクチャに関わらず,2つの独立したモデルの間にも存在します。
このような現象の理論的解析に向けて,本論文で提案する共分散ラッソ(covlasso)回帰問題に対する神経依存性の同定が等価であることを示す。
問題解の特性を調べた結果,ニューラル依存は冗長なロジット共分散行列によって保証され,その条件は大規模カテゴリで容易に満たされ,ニューラル依存は極めて疎結合であり,一つのカテゴリが少数のカテゴリに相関していることが示唆された。
さらに,内部データ相関の理解,未認識のカテゴリへのモデル一般化,依存関係から派生した正規化器によるモデルのロバスト性向上における,ニューラルネットワーク依存の可能性を実証的に示す。
この作業のコードは公開される予定だ。
関連論文リスト
- Nonlinear classification of neural manifolds with contextual information [6.292933471495322]
多様体容量は、人口幾何学とニューラル多様体の分離性とを結びつける有望な枠組みとして出現している。
本稿では,文脈入力情報を活用することによって,この制限を克服する理論的枠組みを提案する。
我々のフレームワークの表現性の向上は、階層階層の初期段階のディープネットワークにおける表現アンハングメントをキャプチャするが、以前は分析にはアクセスできない。
論文 参考訳(メタデータ) (2024-05-10T23:37:31Z) - The Contextual Lasso: Sparse Linear Models via Deep Neural Networks [5.607237982617641]
本研究では,空間的特徴の関数として空間的パターンと係数が変化するような説明的特徴に疎線形モデルに適合する新しい統計的推定器を開発する。
実データと合成データに関する広範な実験は、学習されたモデルは、非常に透明であり、通常のラッソよりもスペーサーであることを示している。
論文 参考訳(メタデータ) (2023-02-02T05:00:29Z) - Neural Additive Models for Location Scale and Shape: A Framework for
Interpretable Neural Regression Beyond the Mean [1.0923877073891446]
ディープニューラルネットワーク(DNN)は、様々なタスクで非常に効果的であることが証明されている。
この成功にもかかわらず、DNNの内部構造はしばしば透明ではない。
この解釈可能性の欠如は、本質的に解釈可能なニューラルネットワークの研究の増加につながった。
論文 参考訳(メタデータ) (2023-01-27T17:06:13Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Understanding Neural Coding on Latent Manifolds by Sharing Features and
Dividing Ensembles [3.625425081454343]
システム神経科学は、単一ニューロンのチューニング曲線と集団活動の分析を特徴とする2つの相補的な神経データ観に依存している。
これらの2つの視点は、潜伏変数とニューラルアクティビティの関係を制約するニューラル潜伏変数モデルにおいてエレガントに結合する。
ニューラルチューニング曲線にまたがる機能共有を提案し、性能を大幅に改善し、より良い最適化を実現する。
論文 参考訳(メタデータ) (2022-10-06T18:37:49Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - Characterizing and overcoming the greedy nature of learning in
multi-modal deep neural networks [62.48782506095565]
深層ニューラルネットワークにおける学習の欲張った性質から、モデルは一つのモダリティにのみ依存する傾向にあり、他のモダリティには不適合であることを示す。
本稿では,学習中のモーダル間の条件付き学習速度のバランスをとるアルゴリズムを提案し,グリージー学習の問題に対処できることを実証する。
論文 参考訳(メタデータ) (2022-02-10T20:11:21Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Pairwise Supervision Can Provably Elicit a Decision Boundary [84.58020117487898]
類似性学習は、パターンのペア間の関係を予測することによって有用な表現を引き出す問題である。
類似性学習は、決定境界を直接引き出すことによって二項分類を解くことができることを示す。
論文 参考訳(メタデータ) (2020-06-11T05:35:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。