論文の概要: MambaLiteSR: Image Super-Resolution with Low-Rank Mamba using Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2502.14090v1
- Date: Wed, 19 Feb 2025 20:32:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-21 17:43:59.085880
- Title: MambaLiteSR: Image Super-Resolution with Low-Rank Mamba using Knowledge Distillation
- Title(参考訳): MambaLiteSR:知識蒸留を用いた低ランクマンバによる超解像
- Authors: Romina Aalishah, Mozhgan Navardi, Tinoosh Mohsenin,
- Abstract要約: MambaLiteSRは、Vision Mambaのアーキテクチャを利用する、新しい軽量画像スーパーリゾリューション(SR)モデルである。
我々は,MambaLiteSRが15%少ないパラメータを用いて,ベースラインモデルと他のエッジモデルに匹敵する性能を実現することを示す。
また、訓練中の低エネルギー使用を維持しながら、最先端のSRエッジモデルと比較して消費電力を最大58%改善する。
- 参考スコア(独自算出の注目度): 0.5243460995467893
- License:
- Abstract: Generative Artificial Intelligence (AI) has gained significant attention in recent years, revolutionizing various applications across industries. Among these, advanced vision models for image super-resolution are in high demand, particularly for deployment on edge devices where real-time processing is crucial. However, deploying such models on edge devices is challenging due to limited computing power and memory. In this paper, we present MambaLiteSR, a novel lightweight image Super-Resolution (SR) model that utilizes the architecture of Vision Mamba. It integrates State Space Blocks and a reconstruction module for efficient feature extraction. To optimize efficiency without affecting performance, MambaLiteSR employs knowledge distillation to transfer key insights from a larger Mamba-based teacher model to a smaller student model via hyperparameter tuning. Through mathematical analysis of model parameters and their impact on PSNR, we identify key factors and adjust them accordingly. Our comprehensive evaluation shows that MambaLiteSR outperforms state-of-the-art edge SR methods by reducing power consumption while maintaining competitive PSNR and SSIM scores across benchmark datasets. It also reduces power usage during training via low-rank approximation. Moreover, MambaLiteSR reduces parameters with minimal performance loss, enabling efficient deployment of generative AI models on resource-constrained devices. Deployment on the embedded NVIDIA Jetson Orin Nano confirms the superior balance of MambaLiteSR size, latency, and efficiency. Experiments show that MambaLiteSR achieves performance comparable to both the baseline and other edge models while using 15% fewer parameters. It also improves power consumption by up to 58% compared to state-of-the-art SR edge models, all while maintaining low energy use during training.
- Abstract(参考訳): 近年、AI(Generative Artificial Intelligence)が注目され、産業全体にわたる様々な応用に革命をもたらした。
これらのうち、特にリアルタイム処理が不可欠であるエッジデバイスへの展開において、画像超解像のための高度なビジョンモデルが要求されている。
しかし、エッジデバイスにそのようなモデルをデプロイすることは、限られた計算能力とメモリのために困難である。
本稿では,Vision Mambaのアーキテクチャを利用した,新しい軽量画像超解像(SR)モデルであるMambaLiteSRを提案する。
State Space Blocksと、効率的な特徴抽出のための再構築モジュールを統合している。
性能に影響を与えることなく効率を最適化するために、MambaLiteSRは知識蒸留を用いて、より大きなMambaベースの教師モデルから、ハイパーパラメータチューニングを通じてより小さな学生モデルへの重要な洞察を伝達する。
モデルパラメータの数学的解析とPSNRへの影響から,重要な要因を特定し,それに応じて調整する。
総合評価の結果、MambaLiteSRは、ベンチマークデータセット間の競合PSNRとSSIMのスコアを維持しながら消費電力を削減し、最先端のSR手法よりも優れていた。
また、低ランク近似によるトレーニング時の消費電力を減らすことができる。
さらに、MambaLiteSRはパフォーマンス損失を最小限に抑え、リソース制約のあるデバイスに生成AIモデルの効率的なデプロイを可能にする。
組み込みのNVIDIA Jetson Orin Nanoへのデプロイは、MambaLiteSRのサイズ、レイテンシ、効率性の優れたバランスを確認する。
実験によると、MambaLiteSRは15%少ないパラメータを使用しながら、ベースラインと他のエッジモデルに匹敵するパフォーマンスを実現している。
また、訓練中の低エネルギー使用を維持しながら、最先端のSRエッジモデルと比較して消費電力を最大58%改善する。
関連論文リスト
- MobileMamba: Lightweight Multi-Receptive Visual Mamba Network [51.33486891724516]
従来の軽量モデルの研究は、主にCNNとTransformerベースの設計に重点を置いてきた。
効率と性能のバランスをとるMobileMambaフレームワークを提案する。
MobileMambaはTop-1で83.6%を達成し、既存の最先端の手法を上回っている。
論文 参考訳(メタデータ) (2024-11-24T18:01:05Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Fine-Tuning and Deploying Large Language Models Over Edges: Issues and Approaches [64.42735183056062]
大規模言語モデル(LLM)は、特殊モデルから多目的基礎モデルへと移行してきた。
LLMは印象的なゼロショット能力を示すが、ローカルデータセットとデプロイメントのための重要なリソースを微調整する必要がある。
論文 参考訳(メタデータ) (2024-08-20T09:42:17Z) - Benchmarking Deep Learning Models on NVIDIA Jetson Nano for Real-Time Systems: An Empirical Investigation [2.3636539018632616]
この研究は、複雑なディープラーニングモデルの最適化を実証的に研究し、組み込みデバイス上で機能を分析する。
画像分類と映像行動検出のための推論速度の観点から最適化されたモデルの有効性を評価する。
論文 参考訳(メタデータ) (2024-06-25T17:34:52Z) - Frequency-Assisted Mamba for Remote Sensing Image Super-Resolution [49.902047563260496]
我々は、リモートセンシング画像(RSI)の超高解像度化のために、視覚状態空間モデル(Mamba)を統合するための最初の試みを開発した。
より優れたSR再構築を実現するため,FMSRと呼ばれる周波数支援型Mambaフレームワークを考案した。
我々のFMSRは、周波数選択モジュール(FSM)、ビジョン状態空間モジュール(VSSM)、ハイブリッドゲートモジュール(HGM)を備えた多層融合アーキテクチャを備えている。
論文 参考訳(メタデータ) (2024-05-08T11:09:24Z) - DVMSR: Distillated Vision Mamba for Efficient Super-Resolution [7.551130027327461]
本研究では,ビジョン・マンバと蒸留戦略を組み込んだ新しい軽量画像SRネットワークであるDVMSRを提案する。
提案したDVMSRは,モデルパラメータの観点から,最先端の効率的なSR手法より優れている。
論文 参考訳(メタデータ) (2024-05-05T17:34:38Z) - TSCM: A Teacher-Student Model for Vision Place Recognition Using Cross-Metric Knowledge Distillation [6.856317526681759]
視覚的位置認識は、移動ロボットの自律的な探索とナビゲーションにおいて重要な役割を果たす。
既存の手法では、強力だが大規模なネットワークを利用することでこれを克服している。
本稿では,TSCMと呼ばれる高性能な教師と軽量な学生蒸留フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-02T02:29:41Z) - Efficient Learning With Sine-Activated Low-rank Matrices [25.12262017296922]
低ランク分解過程に正弦波関数を統合する新しい理論枠組みを提案する。
提案手法は,視覚変換器(ViT),Large Language Models(LLMs),NeRF(Neural Radiance Fields),および3次元形状モデリング(3D shape modelling)において,既存の低ランクモデルに対するプラグインとして証明されている。
論文 参考訳(メタデータ) (2024-03-28T08:58:20Z) - Compressing Deep Image Super-resolution Models [2.895266689123347]
この作業では、深部SRモデルの圧縮に3段階のワークフローを使用し、メモリ要求を大幅に削減する。
我々は,この手法をSwinIRとEDSRという2つの画像超解像ネットワークに適用し,その効果を実証した。
結果、SwinIRminiとEDSRminiはモデルサイズと浮動小数点演算の両方で89%と96%の削減を実現した。
論文 参考訳(メタデータ) (2023-12-31T15:38:50Z) - A-SDM: Accelerating Stable Diffusion through Redundancy Removal and
Performance Optimization [54.113083217869516]
本研究ではまず,ネットワークの計算冗長性について検討する。
次に、モデルの冗長性ブロックをプルークし、ネットワーク性能を維持する。
第3に,計算集約型注意部を高速化するグローバル地域対話型注意(GRI)を提案する。
論文 参考訳(メタデータ) (2023-12-24T15:37:47Z) - Powerpropagation: A sparsity inducing weight reparameterisation [65.85142037667065]
我々は、本質的にスパースモデルにつながるニューラルネットワークの新しい重みパラメータ化であるPowerpropagationを紹介した。
この方法で訓練されたモデルは同様の性能を示すが、0で明らかに高い密度の分布を持ち、より多くのパラメータを安全に刈り取ることができる。
ここでは、Powerpropagationと従来のウェイトプルーニング技術と、最近の最先端スパース・トゥ・スパースアルゴリズムを組み合わせることで、ImageNetベンチマークで優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-10-01T10:03:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。