論文の概要: Stratified Knowledge-Density Super-Network for Scalable Vision Transformers
- arxiv url: http://arxiv.org/abs/2511.11683v1
- Date: Wed, 12 Nov 2025 07:12:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:22.985608
- Title: Stratified Knowledge-Density Super-Network for Scalable Vision Transformers
- Title(参考訳): 拡張型視覚変換器のための階層型知識密度超ネットワーク
- Authors: Longhua Li, Lei Qi, Xin Geng,
- Abstract要約: 異なるリソース制約に対するビジョントランスフォーマー(ViT)モデルのトレーニングとデプロイは費用がかかり非効率である。
本稿では,事前学習したViTを階層化された知識密度超ネットワークに変換することを提案する。
textbfWeighted textbfPCA for textbfAttention textbfContraction (WPAC) を導入する。
- 参考スコア(独自算出の注目度): 39.917962639543696
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training and deploying multiple vision transformer (ViT) models for different resource constraints is costly and inefficient. To address this, we propose transforming a pre-trained ViT into a stratified knowledge-density super-network, where knowledge is hierarchically organized across weights. This enables flexible extraction of sub-networks that retain maximal knowledge for varying model sizes. We introduce \textbf{W}eighted \textbf{P}CA for \textbf{A}ttention \textbf{C}ontraction (WPAC), which concentrates knowledge into a compact set of critical weights. WPAC applies token-wise weighted principal component analysis to intermediate features and injects the resulting transformation and inverse matrices into adjacent layers, preserving the original network function while enhancing knowledge compactness. To further promote stratified knowledge organization, we propose \textbf{P}rogressive \textbf{I}mportance-\textbf{A}ware \textbf{D}ropout (PIAD). PIAD progressively evaluates the importance of weight groups, updates an importance-aware dropout list, and trains the super-network under this dropout regime to promote knowledge stratification. Experiments demonstrate that WPAC outperforms existing pruning criteria in knowledge concentration, and the combination with PIAD offers a strong alternative to state-of-the-art model compression and model expansion methods.
- Abstract(参考訳): 異なるリソース制約に対するマルチビジョントランスフォーマー(ViT)モデルのトレーニングとデプロイは費用がかかり非効率である。
そこで本研究では,事前学習したViTを階層化された知識密度超ネットワークに変換することを提案する。
これにより、様々なモデルサイズに対する最大の知識を保持するサブネットワークの柔軟な抽出が可能になる。
本稿では、知識を臨界重みのコンパクトな集合に集約する「textbf{W}eighted \textbf{P}CA for \textbf{A}ttention \textbf{C}ontraction (WPAC)」を紹介する。
WPACは、中間機能にトークンワイドの主成分分析を適用し、その結果の変換と逆行列を隣接層に注入し、知識のコンパクト性を高めながら元のネットワーク機能を保存する。
階層化された知識組織をさらに促進するために, 階層化された知識組織である \textbf{P}rogressive \textbf{I}mportance-\textbf{A}ware \textbf{D}ropout (PIAD) を提案する。
PIADは、重み群の重要性を徐々に評価し、重要度を意識したドロップアウトリストを更新し、このドロップアウト体制の下でスーパーネットワークを訓練し、知識階層化を促進する。
実験により、WPACは知識集中における既存のプルーニング基準よりも優れており、PIADと組み合わせることで、最先端のモデル圧縮とモデル拡張手法の強力な代替手段を提供する。
関連論文リスト
- Knowledge-Informed Neural Network for Complex-Valued SAR Image Recognition [51.03674130115878]
本稿では,新しい「圧縮集約圧縮」アーキテクチャ上に構築された軽量なフレームワークであるKnowledge-Informed Neural Network(KINN)を紹介する。
KINNはパラメータ効率の認識における最先端を確立し、データスカースとアウト・オブ・ディストリビューションのシナリオにおいて例外的な一般化を提供する。
論文 参考訳(メタデータ) (2025-10-23T07:12:26Z) - RCCFormer: A Robust Crowd Counting Network Based on Transformer [17.02332017201233]
本稿では,RCCFormerと呼ばれる,トランスフォーマーをベースとしたロバストなクラウドカウントネットワークを提案する。
提案手法は, バックボーンアーキテクチャの様々な段階で抽出された特徴を巧みに統合したマルチレベル特徴融合モジュール (MFFM) を組み込んだものである。
提案手法の有効性を上海Tech Part_A,Part_B,NWPU-Crowd,QNRFデータセットで検証した。
論文 参考訳(メタデータ) (2025-04-07T11:19:05Z) - Continuous Knowledge-Preserving Decomposition with Adaptive Layer Selection for Few-Shot Class-Incremental Learning [73.59672160329296]
CKPD-FSCILは、事前訓練された重量の未使用容量を解放する統合フレームワークである。
本手法は,適応性と知識保持の両面で,最先端の手法より一貫して優れている。
論文 参考訳(メタデータ) (2025-01-09T07:18:48Z) - Revisiting Context Aggregation for Image Matting [57.90127743270313]
AEMatter(英語版)は、簡単なが非常に効果的であるマットネットワークである。
AEMatterは、外観強化軸方向学習(AEAL)ブロックを備えたHybrid-Transformerバックボーンを採用し、強いコンテキストアグリゲーション学習機能を備えた基本ネットワークを構築する。
5つの一般的なマッティングデータセットに対する大規模な実験は、提案されたAEMatterが最先端のマッティング手法を大きなマージンで上回ることを示した。
論文 参考訳(メタデータ) (2023-04-03T17:40:30Z) - Graph-based Algorithm Unfolding for Energy-aware Power Allocation in
Wireless Networks [27.600081147252155]
我々は,無線通信網におけるエネルギー効率を最大化する新しいグラフ要約フレームワークを開発した。
無線ネットワークデータのモデルに望ましい特性である置換訓練について述べる。
結果は、異なるネットワークトポロジにまたがる一般化可能性を示している。
論文 参考訳(メタデータ) (2022-01-27T20:23:24Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。