論文の概要: NeuSemSlice: Towards Effective DNN Model Maintenance via Neuron-level Semantic Slicing
- arxiv url: http://arxiv.org/abs/2407.20281v1
- Date: Fri, 26 Jul 2024 03:19:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-31 19:18:14.285135
- Title: NeuSemSlice: Towards Effective DNN Model Maintenance via Neuron-level Semantic Slicing
- Title(参考訳): NeuSemSlice: ニューロンレベルのセマンティックスライシングによる効率的なDNNモデル維持に向けて
- Authors: Shide Zhou, Tianlin Li, Yihao Huang, Ling Shi, Kailong Wang, Yang Liu, Haoyu Wang,
- Abstract要約: NeuSemSliceはセマンティック・アウェア・モデルメンテナンスタスクのためのセマンティックスライシング技術を導入する新しいフレームワークである。
NeuSemSliceは、その意味的類似性に応じて、異なるカテゴリや層にまたがる臨界ニューロンを特定し、分類し、マージする。
徹底的な評価は、NeuSemSliceが3つのタスクのベースラインを著しく上回っていることを示している。
- 参考スコア(独自算出の注目度): 10.909463767558023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural networks (DNNs), extensively applied across diverse disciplines, are characterized by their integrated and monolithic architectures, setting them apart from conventional software systems. This architectural difference introduces particular challenges to maintenance tasks, such as model restructuring (e.g., model compression), re-adaptation (e.g., fitting new samples), and incremental development (e.g., continual knowledge accumulation). Prior research addresses these challenges by identifying task-critical neuron layers, and dividing neural networks into semantically-similar sequential modules. However, such layer-level approaches fail to precisely identify and manipulate neuron-level semantic components, restricting their applicability to finer-grained model maintenance tasks. In this work, we implement NeuSemSlice, a novel framework that introduces the semantic slicing technique to effectively identify critical neuron-level semantic components in DNN models for semantic-aware model maintenance tasks. Specifically, semantic slicing identifies, categorizes and merges critical neurons across different categories and layers according to their semantic similarity, enabling their flexibility and effectiveness in the subsequent tasks. For semantic-aware model maintenance tasks, we provide a series of novel strategies based on semantic slicing to enhance NeuSemSlice. They include semantic components (i.e., critical neurons) preservation for model restructuring, critical neuron tuning for model re-adaptation, and non-critical neuron training for model incremental development. A thorough evaluation has demonstrated that NeuSemSlice significantly outperforms baselines in all three tasks.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、様々な分野にまたがって広く適用されており、その統合されたモノリシックなアーキテクチャによって特徴付けられ、従来のソフトウェアシステムとは切り離されている。
このアーキテクチャの違いは、モデル再構成(例:モデル圧縮)、再適応(例:新しいサンプルの適合)、漸進的な開発(例:継続的な知識の蓄積)といった保守作業に特別な課題をもたらす。
以前の研究では、タスククリティカルなニューロン層を特定し、ニューラルネットワークを意味論的に類似したシーケンシャルモジュールに分割することで、これらの課題に対処していた。
しかし、そのような階層レベルのアプローチでは、ニューロンレベルのセマンティックコンポーネントを正確に識別し、操作することができず、よりきめ細かいモデルメンテナンスタスクの適用性を制限することができる。
本研究では,意味認識モデルメンテナンスタスクのためのDNNモデルにおいて,重要なニューロンレベルのセマンティックコンポーネントを効果的に識別するセマンティックスライシング技術を導入する新しいフレームワークであるNeuSemSliceを実装した。
具体的には、セマンティックスライシングは、それぞれのセマンティックな類似性に応じて、異なるカテゴリや層にまたがる重要なニューロンを特定し、分類し、マージする。
セマンティック・アウェア・モデルメンテナンスタスクでは, セマンティックスライシングに基づく一連の新しい戦略を提供し, NeuSemSlice を強化する。
それらは、モデル再構成のための意味的構成要素(すなわち、臨界ニューロン)の保存、モデル再適応のための臨界ニューロンチューニング、モデルインクリメンタル開発のための非臨界ニューロントレーニングを含む。
徹底的な評価は、NeuSemSliceが3つのタスクのベースラインを著しく上回っていることを示している。
関連論文リスト
- Modularity in Transformers: Investigating Neuron Separability & Specialization [0.0]
トランスフォーマーモデルは様々なアプリケーションでますます普及していますが、内部動作に対する我々の理解は限定的です。
本稿では、視覚(ViT)モデルと言語(Mistral 7B)モデルの両方に着目し、トランスフォーマーアーキテクチャ内のニューロンのモジュラリティとタスクの特殊化について検討する。
選択的プルーニングとMoEficationクラスタリングの組み合わせを用いて、異なるタスクやデータサブセットにわたるニューロンの重複と特殊化を分析する。
論文 参考訳(メタデータ) (2024-08-30T14:35:01Z) - Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Geometric sparsification in recurrent neural networks [0.8851237804522972]
本稿では,リカレントニューラルネット(RNN)のスペーサー化手法を提案する。
変調正則化は、様々な変調正則化器を持つより安定したRNNを誘導し、98%の間隔で高忠実度モデルを達成することを示す。
論文 参考訳(メタデータ) (2024-06-10T14:12:33Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Analyzing Populations of Neural Networks via Dynamical Model Embedding [10.455447557943463]
ディープニューラルネットワークの解釈における中核的な課題は、同じタスクのためにトレーニングされた異なるネットワークによって実装された基盤となるアルゴリズム間の共通点を特定することである。
この問題に触発されたDYNAMOは,各点がニューラルネットワークモデルに対応する低次元多様体を構築するアルゴリズムであり,対応するニューラルネットワークが同様のハイレベルな計算処理を実行する場合,その近傍に2つの点が存在する。
DYNAMOは、事前訓練されたニューラルネットワークのコレクションを入力として、隠された状態のダイナミクスとコレクション内の任意のモデルの出力をエミュレートするメタモデルを出力する。
論文 参考訳(メタデータ) (2023-02-27T19:00:05Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Neural Routing in Meta Learning [9.070747377130472]
入力タスクに条件付けされたモデルの部分のみを選択的に使用することにより,現在のメタ学習アルゴリズムのモデル性能を向上させることを目指している。
本稿では、バッチ正規化層におけるスケーリング係数を活用することにより、深層畳み込みニューラルネットワーク(CNN)におけるタスク依存の動的ニューロン選択を研究するアプローチについて述べる。
提案手法であるニューラルルーティング・イン・メタラーニング(NRML)は,数ショットの分類タスクにおいて,既知のメタラーニングベースラインの1つである。
論文 参考訳(メタデータ) (2022-10-14T16:31:24Z) - Multi-Scale Semantics-Guided Neural Networks for Efficient
Skeleton-Based Human Action Recognition [140.18376685167857]
スケルトンに基づく行動認識には,単純なマルチスケールセマンティクス誘導ニューラルネットワークが提案されている。
MS-SGNは、NTU60、NTU120、SYSUデータセットの最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-11-07T03:50:50Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。