論文の概要: DepGraph: Towards Any Structural Pruning
- arxiv url: http://arxiv.org/abs/2301.12900v2
- Date: Thu, 23 Mar 2023 12:55:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 17:22:22.624827
- Title: DepGraph: Towards Any Structural Pruning
- Title(参考訳): DepGraph: 構造的なプルングを目指す
- Authors: Gongfan Fang, Xinyin Ma, Mingli Song, Michael Bi Mi, Xinchao Wang
- Abstract要約: 我々は、CNN、RNN、GNN、Transformersのような任意のアーキテクチャの一般的な構造解析について研究する。
本稿では,階層間の依存関係を明示的にモデル化し,包括的にグループ化してプルーニングを行う汎用かつ完全自動な手法であるemphDependency Graph(DepGraph)を提案する。
本研究では,画像用ResNe(X)t,DenseNet,MobileNet,Vision Transformer,グラフ用GAT,3Dポイントクラウド用DGCNN,言語用LSTMなど,さまざまなアーキテクチャやタスクに関する手法を広範囲に評価し,言語用LSTMと並行して示す。
- 参考スコア(独自算出の注目度): 68.40343338847664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Structural pruning enables model acceleration by removing
structurally-grouped parameters from neural networks. However, the
parameter-grouping patterns vary widely across different models, making
architecture-specific pruners, which rely on manually-designed grouping
schemes, non-generalizable to new architectures. In this work, we study a
highly-challenging yet barely-explored task, any structural pruning, to tackle
general structural pruning of arbitrary architecture like CNNs, RNNs, GNNs and
Transformers. The most prominent obstacle towards this goal lies in the
structural coupling, which not only forces different layers to be pruned
simultaneously, but also expects all removed parameters to be consistently
unimportant, thereby avoiding structural issues and significant performance
degradation after pruning. To address this problem, we propose a general and
{fully automatic} method, \emph{Dependency Graph} (DepGraph), to explicitly
model the dependency between layers and comprehensively group coupled
parameters for pruning. In this work, we extensively evaluate our method on
several architectures and tasks, including ResNe(X)t, DenseNet, MobileNet and
Vision transformer for images, GAT for graph, DGCNN for 3D point cloud,
alongside LSTM for language, and demonstrate that, even with a simple
norm-based criterion, the proposed method consistently yields gratifying
performances.
- Abstract(参考訳): 構造的プルーニングは、ニューラルネットワークから構造的にグループ化されたパラメータを取り除くことで、モデル加速を可能にする。
しかし、パラメータグループ化パターンは様々なモデルで大きく異なり、新しいアーキテクチャでは一般化できない手動設計のグルーピングスキームに依存するアーキテクチャ固有のプルーナーが作られる。
本研究では, CNN, RNN, GNN, Transformers などの任意のアーキテクチャの一般的な構造解析に対処するため, 構造解析を行おうとする。
この目標に対する最も顕著な障害は、異なるレイヤを同時にプルーニングするだけでなく、すべての削除パラメータが一貫して重要ではないことを期待する構造的結合であり、プルーニング後の構造的問題や大幅なパフォーマンス劣化を回避する。
この問題に対処するため,我々は階層間の依存関係を明示的にモデル化し,包括的にグループ化したプルーニングパラメータをグループ化する,汎用的かつ {fully automated} method, \emph{Dependency Graph} (DepGraph)を提案する。
本研究では,画像用ResNe(X)t,DenseNet,MobileNet,Vision Transformer,グラフ用GAT,3Dポイントクラウド用DGCNN,言語用LSTMなど,さまざまなアーキテクチャやタスクに関する手法を広く評価し,単純なノルムベースの基準を用いても,提案手法が常に満足度の高い性能を示す。
関連論文リスト
- Isomorphic Pruning for Vision Models [56.286064975443026]
構造化プルーニングは、冗長なサブ構造を取り除くことによって、ディープニューラルネットワークの計算オーバーヘッドを低減する。
Isomorphic Pruningは、ネットワークアーキテクチャの範囲で有効性を示すシンプルなアプローチである。
論文 参考訳(メタデータ) (2024-07-05T16:14:53Z) - Structurally Prune Anything: Any Architecture, Any Framework, Any Time [84.6210631783801]
ニューラルネットワークのための汎用的な構造化プルーニングフレームワークであるStructurely Prune Anything (SPA)を紹介した。
SPAは、トレーニング前、微調整後のトレーニング後、または微調整なしでのトレーニング後、いつでもプランニングをサポートする。
大規模な実験では、SPAは様々なアーキテクチャで最先端のプルーニング性能と競合することを示した。
論文 参考訳(メタデータ) (2024-03-03T13:49:49Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - ASGNN: Graph Neural Networks with Adaptive Structure [41.83813812538167]
本稿では,アダプティブ構造(ASMP)を用いた新しい解釈可能なメッセージパッシング方式を提案する。
ASMPは、異なるレイヤにおけるメッセージパッシングプロセスが動的に調整されたグラフ上で実行可能であるという意味で適応的である。
論文 参考訳(メタデータ) (2022-10-03T15:10:40Z) - Deep Neural Networks pruning via the Structured Perspective
Regularization [5.061851539114448]
機械学習では、ニューラルネットワーク(ANN)は非常に強力なツールであり、多くのアプリケーションで広く使われている。
ANN(リンク、ノード、チャネル、ldots)のすべての要素と対応する重みが削除される。
問題の性質は本質的に(プルーンの要素とそうでない要素)であるので,オペレーショナルリサーチツールに基づく新たなプルーニング手法を提案する。
論文 参考訳(メタデータ) (2022-06-28T14:58:51Z) - Inter-layer Transition in Neural Architecture Search [89.00449751022771]
本論文では、連結エッジのアーキテクチャ重み間の依存性を明示的にモデル化する。
5つのベンチマーク実験により、層間依存性のモデル化の価値を確認し、提案手法が最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-30T03:33:52Z) - Adversarially Robust Neural Architectures [43.74185132684662]
本稿では,NASフレームワークを用いたアーキテクチャの観点から,ネットワークの対角的ロバスト性を改善することを目的とする。
本稿では, 対向ロバスト性, リプシッツ定数, アーキテクチャパラメータの関係について検討する。
提案アルゴリズムは,異なるデータセットに対する様々な攻撃の下で,すべてのモデルの中で最高の性能を実証的に達成する。
論文 参考訳(メタデータ) (2020-09-02T08:52:15Z) - Structured Convolutions for Efficient Neural Network Design [65.36569572213027]
畳み込みニューラルネットワーク構築ブロックのテクスト単純構造における冗長性を利用してモデル効率に取り組む。
この分解が2Dカーネルや3Dカーネルだけでなく、完全に接続されたレイヤにも適用可能であることを示す。
論文 参考訳(メタデータ) (2020-08-06T04:38:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。