論文の概要: UPop: Unified and Progressive Pruning for Compressing Vision-Language
Transformers
- arxiv url: http://arxiv.org/abs/2301.13741v3
- Date: Fri, 30 Jun 2023 03:25:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-03 15:31:28.118467
- Title: UPop: Unified and Progressive Pruning for Compressing Vision-Language
Transformers
- Title(参考訳): upop:視覚言語トランスフォーマー圧縮のための統一的でプログレッシブなプルーニング
- Authors: Dachuan Shi, Chaofan Tao, Ying Jin, Zhendong Yang, Chun Yuan, Jiaqi
Wang
- Abstract要約: マルチモーダルモデル、特にバイソン言語変換器の圧縮方法はまだ未定である。
本稿では,textbfUnified と textbfPrtextbfogressive textbfPruning (textbfemphUPop) をバイソン言語トランスフォーマー圧縮フレームワークとして提案する。
- 参考スコア(独自算出の注目度): 26.56787400910704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world data contains a vast amount of multimodal information, among which
vision and language are the two most representative modalities. Moreover,
increasingly heavier models, \textit{e}.\textit{g}., Transformers, have
attracted the attention of researchers to model compression. However, how to
compress multimodal models, especially vison-language Transformers, is still
under-explored. This paper proposes the \textbf{U}nified and
\textbf{P}r\textbf{o}gressive \textbf{P}runing (\textbf{\emph{UPop}}) as a
universal vison-language Transformer compression framework, which incorporates
1) unifiedly searching multimodal subnets in a continuous optimization space
from the original model, which enables automatic assignment of pruning ratios
among compressible modalities and structures; 2) progressively searching and
retraining the subnet, which maintains convergence between the search and
retrain to attain higher compression ratios. Experiments on various tasks,
datasets, and model architectures demonstrate the effectiveness and versatility
of the proposed UPop framework. The code is available at
https://github.com/sdc17/UPop.
- Abstract(参考訳): 現実世界のデータには膨大なマルチモーダル情報が含まれており、視覚と言語は2つの代表的なモダリティである。
さらに、より重いモデルである \textit{e} も増えている。
\textit{g}。
Transformersは、圧縮をモデル化する研究者の注目を集めている。
しかし、マルチモーダルモデル、特にバイソン言語変換器の圧縮方法はまだ未定である。
本稿では,ユニバーサルビゾン言語トランスフォーマー圧縮フレームワークとして, {textbf{U}nified and \textbf{P}r\textbf{o}gressive \textbf{P}runing (\textbf{\emph{UPop}})を提案する。
1) 圧縮可能なモダリティ及び構造間のプルーニング比の自動割り当てを可能にする原モデルから連続最適化空間内のマルチモーダルサブネットを統一的に探索すること。
2) より高い圧縮率を達成するために探索と再訓練の間の収束を維持するサブネットの段階的な探索と再訓練。
さまざまなタスク、データセット、モデルアーキテクチャの実験は、提案されたUPopフレームワークの有効性と汎用性を示している。
コードはhttps://github.com/sdc17/UPop.comで公開されている。
関連論文リスト
- A Survey on Transformer Compression [84.18094368700379]
自然言語処理(NLP)とコンピュータビジョン(CV)の領域においてトランスフォーマーは重要な役割を果たす
モデル圧縮法は、Transformerのメモリと計算コストを削減する。
この調査は、Transformerベースのモデルに適用することに焦点を当てた、最近の圧縮方法に関する包括的なレビューを提供する。
論文 参考訳(メタデータ) (2024-02-05T12:16:28Z) - Repeat After Me: Transformers are Better than State Space Models at Copying [53.47717661441142]
一般化された状態空間モデルは、推論時間効率の観点からは有望であるが、入力コンテキストからのコピーを必要とするタスクのトランスフォーマーモデルと比較して限定的であることを示す。
論文 参考訳(メタデータ) (2024-02-01T21:44:11Z) - White-Box Transformers via Sparse Rate Reduction: Compression Is All There Is? [27.58916930770997]
数学的に完全に解釈可能なCRATEという,ホワイトボックストランスフォーマーのようなディープネットワークアーキテクチャのファミリーを示す。
実験によると、これらのネットワークは単純さにもかかわらず、大規模な実世界の画像とテキストデータセットの表現を圧縮し、分散化することを学習している。
論文 参考訳(メタデータ) (2023-11-22T02:23:32Z) - Multi-Context Dual Hyper-Prior Neural Image Compression [10.349258638494137]
入力画像から局所的情報と大域的情報の両方を効率的にキャプチャするトランスフォーマーに基づく非線形変換を提案する。
また、2つの異なるハイパープライヤを組み込んだ新しいエントロピーモデルを導入し、潜在表現のチャネル間および空間的依存関係をモデル化する。
実験の結果,提案するフレームワークは,速度歪み性能の観点から,最先端の手法よりも優れた性能を示すことがわかった。
論文 参考訳(メタデータ) (2023-09-19T17:44:44Z) - TranSFormer: Slow-Fast Transformer for Machine Translation [52.12212173775029]
本稿では,TrantextbfSFormerと呼ばれる2ストリーム学習モデルを提案する。
我々のTranSFormerは、複数の機械翻訳ベンチマークにおいて、BLEUの一貫性のある改善(BLEU点よりも大きい)を示す。
論文 参考訳(メタデータ) (2023-05-26T14:37:38Z) - Sparsity-guided Network Design for Frame Interpolation [39.828644638174225]
フレームベースアルゴリズムのための圧縮駆動型ネットワーク設計を提案する。
モデルサイズを大幅に削減するために、スパーシリティ誘導最適化によるモデルプルーニングを活用する。
原型AdaCoFの4分の1の大きさで大幅な性能向上を実現しています。
論文 参考訳(メタデータ) (2022-09-09T23:13:25Z) - CSformer: Bridging Convolution and Transformer for Compressive Sensing [65.22377493627687]
本稿では,CNNからの詳細な空間情報を活用するためのハイブリッドフレームワークと,表現学習の強化を目的としたトランスフォーマーが提供するグローバルコンテキストを統合することを提案する。
提案手法は、適応的なサンプリングとリカバリからなるエンドツーエンドの圧縮画像センシング手法である。
実験により, 圧縮センシングにおける専用トランスアーキテクチャの有効性が示された。
論文 参考訳(メタデータ) (2021-12-31T04:37:11Z) - PnP-DETR: Towards Efficient Visual Analysis with Transformers [146.55679348493587]
近年、DeTRはトランスフォーマーを用いたソリューションビジョンタスクの先駆者であり、画像特徴マップを直接オブジェクト結果に変換する。
最近の変圧器を用いた画像認識モデルとTTは、一貫した効率向上を示す。
論文 参考訳(メタデータ) (2021-09-15T01:10:30Z) - Text Compression-aided Transformer Encoding [77.16960983003271]
本稿では,トランスフォーマーのエンコーディングを強化するために,明示的で暗黙的なテキスト圧縮手法を提案する。
バックボーン情報、つまり入力テキストのgistは、特に焦点を当てていません。
評価の結果,提案した明示的かつ暗黙的なテキスト圧縮手法は,強いベースラインと比較して結果を改善することがわかった。
論文 参考訳(メタデータ) (2021-02-11T11:28:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。