論文の概要: MambaLiteSR: Image Super-Resolution with Low-Rank Mamba using Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2502.14090v1
- Date: Wed, 19 Feb 2025 20:32:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-21 17:43:59.085880
- Title: MambaLiteSR: Image Super-Resolution with Low-Rank Mamba using Knowledge Distillation
- Title(参考訳): MambaLiteSR:知識蒸留を用いた低ランクマンバによる超解像
- Authors: Romina Aalishah, Mozhgan Navardi, Tinoosh Mohsenin,
- Abstract要約: MambaLiteSRは、Vision Mambaのアーキテクチャを利用する、新しい軽量画像スーパーリゾリューション(SR)モデルである。
我々は,MambaLiteSRが15%少ないパラメータを用いて,ベースラインモデルと他のエッジモデルに匹敵する性能を実現することを示す。
また、訓練中の低エネルギー使用を維持しながら、最先端のSRエッジモデルと比較して消費電力を最大58%改善する。
- 参考スコア(独自算出の注目度): 0.5243460995467893
- License:
- Abstract: Generative Artificial Intelligence (AI) has gained significant attention in recent years, revolutionizing various applications across industries. Among these, advanced vision models for image super-resolution are in high demand, particularly for deployment on edge devices where real-time processing is crucial. However, deploying such models on edge devices is challenging due to limited computing power and memory. In this paper, we present MambaLiteSR, a novel lightweight image Super-Resolution (SR) model that utilizes the architecture of Vision Mamba. It integrates State Space Blocks and a reconstruction module for efficient feature extraction. To optimize efficiency without affecting performance, MambaLiteSR employs knowledge distillation to transfer key insights from a larger Mamba-based teacher model to a smaller student model via hyperparameter tuning. Through mathematical analysis of model parameters and their impact on PSNR, we identify key factors and adjust them accordingly. Our comprehensive evaluation shows that MambaLiteSR outperforms state-of-the-art edge SR methods by reducing power consumption while maintaining competitive PSNR and SSIM scores across benchmark datasets. It also reduces power usage during training via low-rank approximation. Moreover, MambaLiteSR reduces parameters with minimal performance loss, enabling efficient deployment of generative AI models on resource-constrained devices. Deployment on the embedded NVIDIA Jetson Orin Nano confirms the superior balance of MambaLiteSR size, latency, and efficiency. Experiments show that MambaLiteSR achieves performance comparable to both the baseline and other edge models while using 15% fewer parameters. It also improves power consumption by up to 58% compared to state-of-the-art SR edge models, all while maintaining low energy use during training.
- Abstract(参考訳): 近年、AI(Generative Artificial Intelligence)が注目され、産業全体にわたる様々な応用に革命をもたらした。
これらのうち、特にリアルタイム処理が不可欠であるエッジデバイスへの展開において、画像超解像のための高度なビジョンモデルが要求されている。
しかし、エッジデバイスにそのようなモデルをデプロイすることは、限られた計算能力とメモリのために困難である。
本稿では,Vision Mambaのアーキテクチャを利用した,新しい軽量画像超解像(SR)モデルであるMambaLiteSRを提案する。
State Space Blocksと、効率的な特徴抽出のための再構築モジュールを統合している。
性能に影響を与えることなく効率を最適化するために、MambaLiteSRは知識蒸留を用いて、より大きなMambaベースの教師モデルから、ハイパーパラメータチューニングを通じてより小さな学生モデルへの重要な洞察を伝達する。
モデルパラメータの数学的解析とPSNRへの影響から,重要な要因を特定し,それに応じて調整する。
総合評価の結果、MambaLiteSRは、ベンチマークデータセット間の競合PSNRとSSIMのスコアを維持しながら消費電力を削減し、最先端のSR手法よりも優れていた。
また、低ランク近似によるトレーニング時の消費電力を減らすことができる。
さらに、MambaLiteSRはパフォーマンス損失を最小限に抑え、リソース制約のあるデバイスに生成AIモデルの効率的なデプロイを可能にする。
組み込みのNVIDIA Jetson Orin Nanoへのデプロイは、MambaLiteSRのサイズ、レイテンシ、効率性の優れたバランスを確認する。
実験によると、MambaLiteSRは15%少ないパラメータを使用しながら、ベースラインと他のエッジモデルに匹敵するパフォーマンスを実現している。
また、訓練中の低エネルギー使用を維持しながら、最先端のSRエッジモデルと比較して消費電力を最大58%改善する。
関連論文リスト
- Low Resource Video Super-resolution using Memory and Residual Deformable Convolutions [3.018928786249079]
トランスフォーマーベースのビデオスーパーレゾリューション(VSR)モデルは近年、新しいベンチマークを設定しているが、その相当な計算要求により、リソースに制約のあるデバイスへの展開には適さないものが多い。
本稿では,VSRのための軽量・パラメータ効率の深い残留変形可能な畳み込みネットワークを提案する。
パラメータはわずか230万であり、REDS4データセット上での最先端のSSIMは0.9175である。
論文 参考訳(メタデータ) (2025-02-03T20:46:15Z) - Vision Mamba Distillation for Low-resolution Fine-grained Image Classification [11.636461046632183]
低解像度きめ細かい画像分類の有効性と効率を高めるために,Vision Mamba Distillation (ViMD) アプローチを提案する。
ViMDは、より少ないパラメータとFLOPで類似した手法より優れており、組み込みデバイスアプリケーションに適している。
論文 参考訳(メタデータ) (2024-11-27T01:29:44Z) - MobileMamba: Lightweight Multi-Receptive Visual Mamba Network [51.33486891724516]
従来の軽量モデルの研究は、主にCNNとTransformerベースの設計に重点を置いてきた。
効率と性能のバランスをとるMobileMambaフレームワークを提案する。
MobileMambaはTop-1で83.6%を達成し、既存の最先端の手法を上回っている。
論文 参考訳(メタデータ) (2024-11-24T18:01:05Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Cross-Scan Mamba with Masked Training for Robust Spectral Imaging [51.557804095896174]
本研究では,空間スペクトルSSMを用いたクロススキャンマンバ(CS-Mamba)を提案する。
実験の結果, CS-Mambaは最先端の性能を達成し, マスク付きトレーニング手法によりスムーズな特徴を再構築し, 視覚的品質を向上させることができた。
論文 参考訳(メタデータ) (2024-08-01T15:14:10Z) - Benchmarking Deep Learning Models on NVIDIA Jetson Nano for Real-Time Systems: An Empirical Investigation [2.3636539018632616]
この研究は、複雑なディープラーニングモデルの最適化を実証的に研究し、組み込みデバイス上で機能を分析する。
画像分類と映像行動検出のための推論速度の観点から最適化されたモデルの有効性を評価する。
論文 参考訳(メタデータ) (2024-06-25T17:34:52Z) - Frequency-Assisted Mamba for Remote Sensing Image Super-Resolution [49.902047563260496]
我々は、リモートセンシング画像(RSI)の超高解像度化のために、視覚状態空間モデル(Mamba)を統合するための最初の試みを開発した。
より優れたSR再構築を実現するため,FMSRと呼ばれる周波数支援型Mambaフレームワークを考案した。
我々のFMSRは、周波数選択モジュール(FSM)、ビジョン状態空間モジュール(VSSM)、ハイブリッドゲートモジュール(HGM)を備えた多層融合アーキテクチャを備えている。
論文 参考訳(メタデータ) (2024-05-08T11:09:24Z) - DVMSR: Distillated Vision Mamba for Efficient Super-Resolution [7.551130027327461]
本研究では,ビジョン・マンバと蒸留戦略を組み込んだ新しい軽量画像SRネットワークであるDVMSRを提案する。
提案したDVMSRは,モデルパラメータの観点から,最先端の効率的なSR手法より優れている。
論文 参考訳(メタデータ) (2024-05-05T17:34:38Z) - TSCM: A Teacher-Student Model for Vision Place Recognition Using Cross-Metric Knowledge Distillation [6.856317526681759]
視覚的位置認識は、移動ロボットの自律的な探索とナビゲーションにおいて重要な役割を果たす。
既存の手法では、強力だが大規模なネットワークを利用することでこれを克服している。
本稿では,TSCMと呼ばれる高性能な教師と軽量な学生蒸留フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-02T02:29:41Z) - A-SDM: Accelerating Stable Diffusion through Redundancy Removal and
Performance Optimization [54.113083217869516]
本研究ではまず,ネットワークの計算冗長性について検討する。
次に、モデルの冗長性ブロックをプルークし、ネットワーク性能を維持する。
第3に,計算集約型注意部を高速化するグローバル地域対話型注意(GRI)を提案する。
論文 参考訳(メタデータ) (2023-12-24T15:37:47Z) - Powerpropagation: A sparsity inducing weight reparameterisation [65.85142037667065]
我々は、本質的にスパースモデルにつながるニューラルネットワークの新しい重みパラメータ化であるPowerpropagationを紹介した。
この方法で訓練されたモデルは同様の性能を示すが、0で明らかに高い密度の分布を持ち、より多くのパラメータを安全に刈り取ることができる。
ここでは、Powerpropagationと従来のウェイトプルーニング技術と、最近の最先端スパース・トゥ・スパースアルゴリズムを組み合わせることで、ImageNetベンチマークで優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-10-01T10:03:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。