論文の概要: BiMaCoSR: Binary One-Step Diffusion Model Leveraging Flexible Matrix Compression for Real Super-Resolution
- arxiv url: http://arxiv.org/abs/2502.00333v2
- Date: Tue, 04 Feb 2025 03:58:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:59:50.203219
- Title: BiMaCoSR: Binary One-Step Diffusion Model Leveraging Flexible Matrix Compression for Real Super-Resolution
- Title(参考訳): BiMaCoSR: フレキシブルマトリックス圧縮を利用した二段拡散モデル
- Authors: Kai Liu, Kaicheng Yang, Zheng Chen, Zhiteng Li, Yong Guo, Wenbo Li, Linghe Kong, Yulun Zhang,
- Abstract要約: 本稿では,バイナライゼーションと1段階蒸留を組み合わせたBiMaCoSRを提案する。
BiMaCoSRはFPに比べて23.8倍圧縮率と27.4倍スピードアップ比を達成した。
- 参考スコア(独自算出の注目度): 63.777210548110425
- License:
- Abstract: While super-resolution (SR) methods based on diffusion models (DM) have demonstrated inspiring performance, their deployment is impeded due to the heavy request of memory and computation. Recent researchers apply two kinds of methods to compress or fasten the DM. One is to compress the DM into 1-bit, aka binarization, alleviating the storage and computation pressure. The other distills the multi-step DM into only one step, significantly speeding up inference process. Nonetheless, it remains impossible to deploy DM to resource-limited edge devices. To address this problem, we propose BiMaCoSR, which combines binarization and one-step distillation to obtain extreme compression and acceleration. To prevent the catastrophic collapse of the model caused by binarization, we proposed sparse matrix branch (SMB) and low rank matrix branch (LRMB). Both auxiliary branches pass the full-precision (FP) information but in different ways. SMB absorbs the extreme values and its output is high rank, carrying abundant FP information. Whereas, the design of LRMB is inspired by LoRA and is initialized with the top r SVD components, outputting low rank representation. The computation and storage overhead of our proposed branches can be safely ignored. Comprehensive comparison experiments are conducted to exhibit BiMaCoSR outperforms current state-of-the-art binarization methods and gains competitive performance compared with FP one-step model. BiMaCoSR achieves a 23.8x compression ratio and a 27.4x speedup ratio compared to FP counterpart. Our code and model are available at https://github.com/Kai-Liu001/BiMaCoSR.
- Abstract(参考訳): 拡散モデル (DM) に基づく超解像 (SR) 法は, 性能向上を実証しているが, メモリと計算の要求が大きいため, その展開が妨げられている。
最近の研究者は、DMを圧縮または高速化する2種類の方法を適用している。
1つは、DMを1ビットに圧縮し、つまり二項化し、記憶と計算の圧力を軽減することである。
もう一方は多段DMを1段階だけ蒸留し、推論プロセスを大幅に高速化する。
それでも、リソース制限されたエッジデバイスにDMをデプロイすることは不可能である。
この問題に対処するために,バイナライゼーションと1段階蒸留を組み合わせたBiMaCoSRを提案する。
双項化によるモデル破壊を防止するため,スパース行列分岐 (SMB) と低ランク行列分岐 (LRMB) を提案した。
両方の補助枝は、FP(Full-precision)情報を異なる方法で渡す。
SMBは極端な値を吸収し、その出力は高いランクであり、豊富なFP情報を運ぶ。
一方、LRMBの設計はLoRAにインスパイアされ、上位のSVDコンポーネントで初期化され、低ランクの表現が出力される。
提案したブランチの計算とストレージのオーバーヘッドを安全に無視することができる。
総合的な比較実験を行い、BiMaCoSRが現在の最先端のバイナライゼーション法より優れ、FPワンステップモデルと比較して競争性能が向上することを示した。
BiMaCoSRはFPに比べて23.8倍圧縮率と27.4倍スピードアップ比を実現している。
私たちのコードとモデルはhttps://github.com/Kai-Liu001/BiMaCoSR.comで公開されています。
関連論文リスト
- Progressive Binarization with Semi-Structured Pruning for LLMs [36.32239429974179]
大規模言語モデル(LLM)は自然言語処理タスクにおいて顕著な成功を収めた。
彼らの高い計算量とメモリ要求は、リソース制約のあるデバイスへのデプロイに困難をもたらす。
LLM圧縮のための半構造化プルーニング(PBS$2$P)法によるプログレッシブバイナリ化を提案する。
論文 参考訳(メタデータ) (2025-02-03T13:30:29Z) - BiDM: Pushing the Limit of Quantization for Diffusion Models [60.018246440536814]
本稿では,DMの重みとアクティベーションを完全にバイナライズし,量子化を1ビット限界まで押し上げる手法であるBiDMを提案する。
DMを完全にバイナライズする最初の取り組みとして、LSUN-Bedrooms 256$times$256のLDM-4モデルのW1A1 BiDMは22.74という驚くべきFIDを達成した。
論文 参考訳(メタデータ) (2024-12-08T12:45:21Z) - ARB-LLM: Alternating Refined Binarizations for Large Language Models [82.24826360906341]
ARB-LLMは、大規模言語モデル(LLM)に適した新しい1ビット後トレーニング量子化(PTQ)技術である。
ARB-LLM$_textRC$は同じサイズのFP16モデルを超えるのは初めてです。
論文 参考訳(メタデータ) (2024-10-04T03:50:10Z) - Binarized Diffusion Model for Image Super-Resolution [61.963833405167875]
超圧縮アルゴリズムであるバイナリ化は、高度な拡散モデル(DM)を効果的に加速する可能性を提供する
既存の二項化法では性能が著しく低下する。
画像SRのための新しいバイナライズ拡散モデルBI-DiffSRを提案する。
論文 参考訳(メタデータ) (2024-06-09T10:30:25Z) - BinaryDM: Accurate Weight Binarization for Efficient Diffusion Models [39.287947829085155]
本稿では,バイナライズされたDMを正確かつ効率的に推し進めるため,DMの新しい重み付きバイナライズ手法,すなわちBinaryDMを提案する。
表現の観点からは、EDB(Evolvable-Basis Binarizer)を提示し、完全精度から正確に二項化できるDMのスムーズな進化を可能にする。
実験により、BinaryDMは、超低ビット幅でのDMのSOTA量子化法と比較して、高い精度と効率向上を達成することが示された。
論文 参考訳(メタデータ) (2024-04-08T16:46:25Z) - Binarized Spectral Compressive Imaging [59.18636040850608]
ハイパースペクトル画像(HSI)再構成のための既存のディープラーニングモデルは、優れた性能を実現するが、膨大なメモリと計算資源を持つ強力なハードウェアを必要とする。
本稿では,BiSRNet(Biarized Spectral-Redistribution Network)を提案する。
BiSRNetは,提案手法を用いてベースモデルのバイナライズを行う。
論文 参考訳(メタデータ) (2023-05-17T15:36:08Z) - A Generic Network Compression Framework for Sequential Recommender
Systems [71.81962915192022]
シークエンシャルレコメンデーションシステム(SRS)は,ユーザの動的関心を捉え,高品質なレコメンデーションを生成する上で重要な技術となっている。
CpRecと呼ばれる圧縮されたシーケンシャルレコメンデーションフレームワークを提案する。
大規模なアブレーション研究により、提案したCpRecは実世界のSRSデータセットにおいて最大4$sim$8倍の圧縮速度を達成できることを示した。
論文 参考訳(メタデータ) (2020-04-21T08:40:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。