論文の概要: Towards Lightest Low-Light Image Enhancement Architecture for Mobile Devices
- arxiv url: http://arxiv.org/abs/2507.04277v1
- Date: Sun, 06 Jul 2025 07:36:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.099332
- Title: Towards Lightest Low-Light Image Enhancement Architecture for Mobile Devices
- Title(参考訳): モバイルデバイス用最軽量低光画像強調アーキテクチャの実現に向けて
- Authors: Guangrui Bai, Hailong Yan, Wenhai Liu, Yahui Deng, Erbao Dong,
- Abstract要約: モバイルおよび組み込みデバイス上でのリアルタイム低照度画像強調には、視覚的品質と計算効率のバランスをとるモデルが必要である。
大規模監視への依存を解消する超軽量無監督強化フレームワーク LiteIE を提案する。
LiteIEは、わずか58パラメータの4Kイメージで30 FPSで動作し、エッジデバイスへのリアルタイムデプロイメントを可能にする。
- 参考スコア(独自算出の注目度): 3.7651572719063178
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-time low-light image enhancement on mobile and embedded devices requires models that balance visual quality and computational efficiency. Existing deep learning methods often rely on large networks and labeled datasets, limiting their deployment on resource-constrained platforms. In this paper, we propose LiteIE, an ultra-lightweight unsupervised enhancement framework that eliminates dependence on large-scale supervision and generalizes well across diverse conditions. We design a backbone-agnostic feature extractor with only two convolutional layers to produce compact image features enhancement tensors. In addition, we develop a parameter-free Iterative Restoration Module, which reuses the extracted features to progressively recover fine details lost in earlier enhancement steps, without introducing any additional learnable parameters. We further propose an unsupervised training objective that integrates exposure control, edge-aware smoothness, and multi-scale color consistency losses. Experiments on the LOL dataset, LiteIE achieves 19.04 dB PSNR, surpassing SOTA by 1.4 dB while using only 0.07\% of its parameters. On a Snapdragon 8 Gen 3 mobile processor, LiteIE runs at 30 FPS for 4K images with just 58 parameters, enabling real-time deployment on edge devices. These results establish LiteIE as an efficient and practical solution for low-light enhancement on resource-limited platforms.
- Abstract(参考訳): モバイルおよび組み込みデバイス上でのリアルタイム低照度画像強調には、視覚的品質と計算効率のバランスをとるモデルが必要である。
既存のディープラーニングメソッドは、大きなネットワークやラベル付きデータセットに依存することが多く、リソース制約のあるプラットフォームへのデプロイメントを制限する。
本稿では,大規模監視への依存を排除し,多様な条件にまたがる最適化を行う,超軽量非教師付き拡張フレームワークLiteIEを提案する。
コンボリューション層が2層しかない背骨非依存の特徴抽出器を設計し,コンパクトな画像特徴強調テンソルを作成する。
さらに,抽出した特徴を再利用したパラメータフリー反復復元モジュールを開発した。
さらに、露光制御、エッジ認識のスムーズさ、マルチスケールカラーコントラスト損失を統合化するための教師なしトレーニング目標を提案する。
LOLデータセットの実験では、LiteIEは19.04dBのPSNRを達成し、SOTAを1.4dB上回り、パラメータの0.07\%しか使用していない。
Snapdragon 8 Gen 3モバイルプロセッサでは、LiteIEはわずか58パラメータの4Kイメージで30 FPSで動作し、エッジデバイスへのリアルタイムデプロイメントを可能にする。
これらの結果から,LiteIEは資源制限されたプラットフォーム上での低照度化のための効率的かつ実用的なソリューションとして確立された。
関連論文リスト
- LightFormer: A lightweight and efficient decoder for remote sensing image segmentation [12.003743832147403]
構造化されていないターゲットを含む時間クリティカルなタスクのための軽量デコーダであるLightFormerを紹介します。
LightFormerは、チャネル処理上に構築された機能融合および改良モジュールと、学習可能なゲーティング機構を使用して、マルチスケール、マルチレンジ情報を効率的に集約する。
ISPRS Vaihingenベンチマークでは、LightFormerはGLFFNetのmIoUの99.9%を獲得し、FLOPの14.7%とパラメータの15.9%しか必要としていない。
論文 参考訳(メタデータ) (2025-04-15T03:25:39Z) - LightGen: Efficient Image Generation through Knowledge Distillation and Direct Preference Optimization [37.236005953016175]
LightGenは、画像生成モデルのための効率的なトレーニングパラダイムである。
最先端(SOTA)テキスト・ツー・イメージモデルから知識を抽出し、コンパクトなMasked Autoregressiveアーキテクチャに変換する。
実験では、LightGenがSOTAモデルに匹敵する画像生成品質を達成することを確認した。
論文 参考訳(メタデータ) (2025-03-11T16:58:02Z) - Illuminating Darkness: Enhancing Real-world Low-light Scenes with Smartphone Images [47.39277249268179]
このデータセットは、挑戦的な照明条件(0.1-200 lux)の下で、スマートフォンセンサーで捉えた6,425のユニークな焦点整列画像対からなる。
ベンチマークのために400ペアを保存しながら、6,025の収集されたシーンから180,000の非重複パッチを抽出し、精査した。
それに加えて、異なるソースから2,117個の低照度シーンを収集し、広範囲の現実世界の美的評価を行った。
論文 参考訳(メタデータ) (2025-03-10T04:01:56Z) - Striving for Faster and Better: A One-Layer Architecture with Auto Re-parameterization for Low-Light Image Enhancement [50.93686436282772]
我々は、視覚的品質と計算効率の両方から、画像エンハンサーの限界を掘り下げることを目指している。
タスク要求を再考することにより、視覚的品質と計算効率がモデル学習と構造設計に対応する、明示的な接続を構築する。
最終的には、単一の畳み込み層のみを使用して、優れた視覚的品質を維持しながら、効率的な低照度画像強調を実現する。
論文 参考訳(メタデータ) (2025-02-27T08:20:03Z) - BRIGHT-VO: Brightness-Guided Hybrid Transformer for Visual Odometry with Multi-modality Refinement Module [11.898515581215708]
視覚計測(VO)は、自律運転、ロボットナビゲーション、その他の関連するタスクにおいて重要な役割を果たす。
本稿では,トランスフォーマーアーキテクチャに基づく新しいVOモデルであるBrightVOを紹介し,フロントエンドの視覚的特徴抽出を行う。
ポーズグラフ最適化を用いて、このモジュールは、エラーを減らし、精度とロバスト性の両方を改善するために、ポーズ推定を反復的に洗練する。
論文 参考訳(メタデータ) (2025-01-15T08:50:52Z) - BVI-RLV: A Fully Registered Dataset and Benchmarks for Low-Light Video Enhancement [56.97766265018334]
本稿では,2つの異なる低照度条件下での様々な動きシナリオを持つ40のシーンからなる低照度映像データセットを提案する。
我々は、プログラム可能なモータードリーを用いて、通常の光で捉えた完全に登録された地上真実データを提供し、異なる光レベルにわたるピクセルワイドフレームアライメントのための画像ベースアプローチによりそれを洗練する。
実験の結果,Low-light Video enhancement (LLVE) における完全登録ビデオペアの重要性が示された。
論文 参考訳(メタデータ) (2024-07-03T22:41:49Z) - Ultra-High-Definition Low-Light Image Enhancement: A Benchmark and
Transformer-Based Method [51.30748775681917]
低照度画像強調(LLIE)の課題を考察し,4K解像度と8K解像度の画像からなる大規模データベースを導入する。
我々は、系統的なベンチマーク研究を行い、現在のLLIEアルゴリズムと比較する。
第2のコントリビューションとして,変換器をベースとした低照度化手法であるLLFormerを紹介する。
論文 参考訳(メタデータ) (2022-12-22T09:05:07Z) - Data-Model-Circuit Tri-Design for Ultra-Light Video Intelligence on Edge
Devices [90.30316433184414]
本稿では,HDビデオストリーム上での高スループット,低コスト,高精度MOTのためのデータモデル・ハードウエア・トリデザイン・フレームワークを提案する。
現状のMOTベースラインと比較して、我々の三設計アプローチは12.5倍の遅延低減、20.9倍のフレームレート改善、5.83倍の低消費電力、9.78倍のエネルギー効率を実現でき、精度は低下しない。
論文 参考訳(メタデータ) (2022-10-16T16:21:40Z) - Toward Fast, Flexible, and Robust Low-Light Image Enhancement [87.27326390675155]
我々は、現実の低照度シナリオにおいて、高速でフレキシブルで頑健な鮮明化のための新しい自己校正イルミネーション(SCI)学習フレームワークを開発した。
カスケードパターンの計算負担を考慮すると、各ステージの結果の収束を実現する自己校正モジュールを構築する。
我々は,SCI固有の特性について,操作不感適応性やモデル非関係の一般性を含む包括的探索を行う。
論文 参考訳(メタデータ) (2022-04-21T14:40:32Z) - A Retinex based GAN Pipeline to Utilize Paired and Unpaired Datasets for
Enhancing Low Light Images [0.0]
本稿では,ペアとアンペアの両方のデータセットから学習可能な,新しいディープラーニングパイプラインを提案する。
標準損失を最小限にするために最適化されたCNNと、敵損失を最小限にするために最適化されたGAN(Generative Adversarial Networks)を使用する。
論文 参考訳(メタデータ) (2020-06-27T07:12:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。