論文の概要: Self-Supervised Representation Learning on Neural Network Weights for
Model Characteristic Prediction
- arxiv url: http://arxiv.org/abs/2110.15288v1
- Date: Thu, 28 Oct 2021 16:48:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 16:07:26.409037
- Title: Self-Supervised Representation Learning on Neural Network Weights for
Model Characteristic Prediction
- Title(参考訳): モデル特性予測のためのニューラルネットワーク重み付き自己教師あり表現学習
- Authors: Konstantin Sch\"urholt, Dimche Kostadinov, Damian Borth
- Abstract要約: 自己監視学習(SSL)は有用かつ情報保存的な表現を学ぶことが示されている。
ニューラルネットワーク(NN)の人口重みのニューラルネットワーク表現をSSLで学習することを提案する。
実験により,本領域における自己教師型表現学習は,様々なNNモデル特性を回復できることが示された。
- 参考スコア(独自算出の注目度): 1.9659095632676094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-Supervised Learning (SSL) has been shown to learn useful and
information-preserving representations. Neural Networks (NNs) are widely
applied, yet their weight space is still not fully understood. Therefore, we
propose to use SSL to learn neural representations of the weights of
populations of NNs. To that end, we introduce domain specific data
augmentations and an adapted attention architecture. Our empirical evaluation
demonstrates that self-supervised representation learning in this domain is
able to recover diverse NN model characteristics. Further, we show that the
proposed learned representations outperform prior work for predicting
hyper-parameters, test accuracy, and generalization gap as well as transfer to
out-of-distribution settings.
- Abstract(参考訳): 自己監視学習(SSL)は有用な情報保存表現を学習する。
ニューラルネットワーク(NN)は広く応用されているが、その重量空間は未だ完全には理解されていない。
そこで我々は,NNの人口重みのニューラルネットワーク表現をSSLを用いて学習することを提案する。
そのために、ドメイン固有のデータ拡張と適応型アテンションアーキテクチャを導入します。
この領域における自己教師あり表現学習は多様なnnモデル特性を回復できることを示す。
さらに,超パラメータ予測,テスト精度,一般化ギャップの予測,分布外設定への転送などにおいて,提案手法が先行研究よりも優れていることを示す。
関連論文リスト
- ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - NeRN -- Learning Neural Representations for Neural Networks [3.7384109981836153]
ニューラルネットワークを正しく適応させると、トレーニング済みの畳み込みニューラルネットワークの重みを表現できる。
従来のニューラル表現法の入力の座標にインスパイアされ、ネットワーク内の各畳み込みカーネルに座標を割り当てる。
我々は、NeRNを用いて学習した表現の能力を実証する2つのアプリケーションを提案する。
論文 参考訳(メタデータ) (2022-12-27T17:14:44Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - Knowledge Enhanced Neural Networks for relational domains [83.9217787335878]
我々は、ニューラルネットワークに事前論理的知識を注入するニューラルネットワークアーキテクチャであるKENNに焦点を当てる。
本稿では,関係データに対するKENNの拡張を提案する。
論文 参考訳(メタデータ) (2022-05-31T13:00:34Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - Locally Sparse Networks for Interpretable Predictions [7.362415721170984]
本稿では,局所的な疎度をサンプル固有のゲーティング機構を用いて学習する,局所スパースニューラルネットワークのトレーニングフレームワークを提案する。
サンプル固有の間隔は、テキスト予測ネットワークで予測され、テキスト予測ネットワークとタンデムでトレーニングされる。
本手法は,1インスタンスあたりの機能が少ないターゲット関数の予測において,最先端のモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-11T15:46:50Z) - Persistent Homology Captures the Generalization of Neural Networks
Without A Validation Set [0.0]
本稿では,代数的トポロジー,特に永続的ホモロジーを用いたニューラルネットワークのトレーニングについて考察する。
ニューラルネットワークの単純な複雑な表現を用いて、ニューラルネットワーク学習プロセスにおけるPHダイアグラム距離の進化について検討する。
その結果,連続するニューラルネットワーク状態間のPHダイアグラム距離は,検証精度と相関していることがわかった。
論文 参考訳(メタデータ) (2021-05-31T09:17:31Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Learning Semantically Meaningful Features for Interpretable
Classifications [17.88784870849724]
SemCNNは視覚特徴と単語句の関連を学習する。
複数のベンチマークデータセットの実験結果は、SemCNNが明確な意味を持つ特徴を学習できることを実証している。
論文 参考訳(メタデータ) (2021-01-11T14:35:16Z) - Neural Networks Enhancement with Logical Knowledge [83.9217787335878]
関係データに対するKENNの拡張を提案する。
その結果、KENNは、存在関係データにおいても、基礎となるニューラルネットワークの性能を高めることができることがわかった。
論文 参考訳(メタデータ) (2020-09-13T21:12:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。