論文の概要: The Multiple Subnetwork Hypothesis: Enabling Multidomain Learning by
Isolating Task-Specific Subnetworks in Feedforward Neural Networks
- arxiv url: http://arxiv.org/abs/2207.08821v1
- Date: Mon, 18 Jul 2022 15:07:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 13:15:20.319345
- Title: The Multiple Subnetwork Hypothesis: Enabling Multidomain Learning by
Isolating Task-Specific Subnetworks in Feedforward Neural Networks
- Title(参考訳): マルチサブネット仮説:フィードフォワードニューラルネットワークにおけるタスク特化サブネットの分離によるマルチドメイン学習の実現
- Authors: Jacob Renn, Ian Sotnek, Benjamin Harvey, Brian Caffo
- Abstract要約: 我々は,未使用の重み付きネットワークがその後のタスクを学習するための方法論とネットワーク表現構造を同定する。
提案手法を用いてトレーニングされたネットワークは,タスクのパフォーマンスを犠牲にすることなく,あるいは破滅的な忘れを伴わずに,複数のタスクを学習できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks have seen an explosion of usage and research in the past
decade, particularly within the domains of computer vision and natural language
processing. However, only recently have advancements in neural networks yielded
performance improvements beyond narrow applications and translated to expanded
multitask models capable of generalizing across multiple data types and
modalities. Simultaneously, it has been shown that neural networks are
overparameterized to a high degree, and pruning techniques have proved capable
of significantly reducing the number of active weights within the network while
largely preserving performance. In this work, we identify a methodology and
network representational structure which allows a pruned network to employ
previously unused weights to learn subsequent tasks. We employ these
methodologies on well-known benchmarking datasets for testing purposes and show
that networks trained using our approaches are able to learn multiple tasks,
which may be related or unrelated, in parallel or in sequence without
sacrificing performance on any task or exhibiting catastrophic forgetting.
- Abstract(参考訳): ニューラルネットワークは過去10年間、特にコンピュータビジョンと自然言語処理の領域で利用と研究が爆発的に増えている。
しかし、ニューラルネットワークの進歩により、狭いアプリケーションを超えてパフォーマンスが向上し、複数のデータタイプとモダリティをまたいだ一般化が可能な拡張マルチタスクモデルに変換された。
同時に、ニューラルネットワークは高度に過度にパラメータ化されていることが示され、プルーニング技術はネットワーク内でのアクティブな重みの数を著しく削減し、性能を保っていることが証明されている。
そこで本研究では,prunedネットワークが未使用の重みを生かして後続のタスクを学習できる手法とネットワーク表現構造を明らかにする。
我々はこれらの手法を、よく知られたベンチマークデータセットを用いてテストし、我々のアプローチを用いて訓練されたネットワークが、あらゆるタスクのパフォーマンスを犠牲にすることなく、あるいは破滅的な忘れを伴わずに、複数のタスクを同時に、あるいは無関係に学習できることを示す。
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Neural Subnetwork Ensembles [2.44755919161855]
この論文は、Subnetwork Ensemblesを構築するための低コストのフレームワークを導入し、形式化する。
児童ネットワークは、訓練された親モデルからのサンプリング、摂動、最適化によって形成される。
その結果,本手法はトレーニング効率,パラメトリック利用,一般化性能を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2023-11-23T17:01:16Z) - Riemannian Residual Neural Networks [58.925132597945634]
残余ニューラルネットワーク(ResNet)の拡張方法を示す。
ResNetは、機械学習において、有益な学習特性、優れた経験的結果、そして様々なニューラルネットワークを構築する際に容易に組み込める性質のために、ユビキタスになった。
論文 参考訳(メタデータ) (2023-10-16T02:12:32Z) - Provable Guarantees for Nonlinear Feature Learning in Three-Layer Neural
Networks [49.808194368781095]
3層ニューラルネットワークは,2層ネットワークよりも特徴学習能力が豊富であることを示す。
この研究は、特徴学習体制における2層ネットワーク上の3層ニューラルネットワークの証明可能なメリットを理解するための前進である。
論文 参考訳(メタデータ) (2023-05-11T17:19:30Z) - Dynamic Neural Network for Multi-Task Learning Searching across Diverse
Network Topologies [14.574399133024594]
多様なグラフトポロジを持つ複数のタスクに対して最適化された構造を探索する新しいMTLフレームワークを提案する。
我々は、トポロジ的に多様なタスク適応構造を構築するために、読み出し/読み出し層を備えたDAGベースの制限付き中央ネットワークを設計する。
論文 参考訳(メタデータ) (2023-03-13T05:01:50Z) - Quasi-orthogonality and intrinsic dimensions as measures of learning and
generalisation [55.80128181112308]
ニューラルネットワークの特徴空間の次元性と準直交性は、ネットワークの性能差別と共同して機能する可能性があることを示す。
本研究は, ネットワークの最終的な性能と, ランダムに初期化された特徴空間の特性との関係を示唆する。
論文 参考訳(メタデータ) (2022-03-30T21:47:32Z) - What can linearized neural networks actually say about generalization? [67.83999394554621]
ある無限大のニューラルネットワークにおいて、ニューラル・タンジェント・カーネル(NTK)理論は一般化を完全に特徴づける。
線形近似は、ニューラルネットワークの特定のタスクの学習複雑性を確実にランク付けできることを示す。
我々の研究は、将来の理論的研究を刺激する新しい深層学習現象の具体例を提供する。
論文 参考訳(メタデータ) (2021-06-12T13:05:11Z) - Topological Uncertainty: Monitoring trained neural networks through
persistence of activation graphs [0.9786690381850356]
産業アプリケーションでは、オープンワールド設定から得られるデータは、ネットワークがトレーニングされたベンチマークデータセットと大きく異なる可能性がある。
活性化グラフのトポロジ的特性に基づいて訓練されたニューラルネットワークを監視する手法を開発している。
論文 参考訳(メタデータ) (2021-05-07T14:16:03Z) - Graph-Based Neural Network Models with Multiple Self-Supervised
Auxiliary Tasks [79.28094304325116]
グラフ畳み込みネットワークは、構造化されたデータポイント間の関係をキャプチャするための最も有望なアプローチである。
マルチタスク方式でグラフベースニューラルネットワークモデルを学習するための3つの新しい自己教師付き補助タスクを提案する。
論文 参考訳(メタデータ) (2020-11-14T11:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。