論文の概要: Towards Lightest Low-Light Image Enhancement Architecture for Mobile Devices
- arxiv url: http://arxiv.org/abs/2507.04277v1
- Date: Sun, 06 Jul 2025 07:36:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.099332
- Title: Towards Lightest Low-Light Image Enhancement Architecture for Mobile Devices
- Title(参考訳): モバイルデバイス用最軽量低光画像強調アーキテクチャの実現に向けて
- Authors: Guangrui Bai, Hailong Yan, Wenhai Liu, Yahui Deng, Erbao Dong,
- Abstract要約: モバイルおよび組み込みデバイス上でのリアルタイム低照度画像強調には、視覚的品質と計算効率のバランスをとるモデルが必要である。
大規模監視への依存を解消する超軽量無監督強化フレームワーク LiteIE を提案する。
LiteIEは、わずか58パラメータの4Kイメージで30 FPSで動作し、エッジデバイスへのリアルタイムデプロイメントを可能にする。
- 参考スコア(独自算出の注目度): 3.7651572719063178
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-time low-light image enhancement on mobile and embedded devices requires models that balance visual quality and computational efficiency. Existing deep learning methods often rely on large networks and labeled datasets, limiting their deployment on resource-constrained platforms. In this paper, we propose LiteIE, an ultra-lightweight unsupervised enhancement framework that eliminates dependence on large-scale supervision and generalizes well across diverse conditions. We design a backbone-agnostic feature extractor with only two convolutional layers to produce compact image features enhancement tensors. In addition, we develop a parameter-free Iterative Restoration Module, which reuses the extracted features to progressively recover fine details lost in earlier enhancement steps, without introducing any additional learnable parameters. We further propose an unsupervised training objective that integrates exposure control, edge-aware smoothness, and multi-scale color consistency losses. Experiments on the LOL dataset, LiteIE achieves 19.04 dB PSNR, surpassing SOTA by 1.4 dB while using only 0.07\% of its parameters. On a Snapdragon 8 Gen 3 mobile processor, LiteIE runs at 30 FPS for 4K images with just 58 parameters, enabling real-time deployment on edge devices. These results establish LiteIE as an efficient and practical solution for low-light enhancement on resource-limited platforms.
- Abstract(参考訳): モバイルおよび組み込みデバイス上でのリアルタイム低照度画像強調には、視覚的品質と計算効率のバランスをとるモデルが必要である。
既存のディープラーニングメソッドは、大きなネットワークやラベル付きデータセットに依存することが多く、リソース制約のあるプラットフォームへのデプロイメントを制限する。
本稿では,大規模監視への依存を排除し,多様な条件にまたがる最適化を行う,超軽量非教師付き拡張フレームワークLiteIEを提案する。
コンボリューション層が2層しかない背骨非依存の特徴抽出器を設計し,コンパクトな画像特徴強調テンソルを作成する。
さらに,抽出した特徴を再利用したパラメータフリー反復復元モジュールを開発した。
さらに、露光制御、エッジ認識のスムーズさ、マルチスケールカラーコントラスト損失を統合化するための教師なしトレーニング目標を提案する。
LOLデータセットの実験では、LiteIEは19.04dBのPSNRを達成し、SOTAを1.4dB上回り、パラメータの0.07\%しか使用していない。
Snapdragon 8 Gen 3モバイルプロセッサでは、LiteIEはわずか58パラメータの4Kイメージで30 FPSで動作し、エッジデバイスへのリアルタイムデプロイメントを可能にする。
これらの結果から,LiteIEは資源制限されたプラットフォーム上での低照度化のための効率的かつ実用的なソリューションとして確立された。
関連論文リスト
- RRNet: Configurable Real-Time Video Enhancement with Arbitrary Local Lighting Variations [7.360594425594612]
本稿では,視覚的品質と効率のトレードオフを実現するフレームワークRRNetを紹介する。
RRNetは、ピクセル対応のトレーニングデータを必要とすることなく、深度対応のレンダリングモジュールを通じてローカライズされたリライトを可能にする。
実験により、RRNetは、低照度向上、局所照明調整、グラア除去において、従来手法よりも一貫して優れていたことが示されている。
論文 参考訳(メタデータ) (2026-01-05T07:50:59Z) - LiteFusion: Taming 3D Object Detectors from Vision-Based to Multi-Modal with Minimal Adaptation [23.72983078807998]
現在の3Dオブジェクト検出器は、高い検出精度を達成するために複雑なアーキテクチャとトレーニング戦略に依存している。
これらの方法はLiDARセンサーに大きく依存しているため、LiDARが欠如している場合に大きな性能低下に悩まされる。
我々は,LiDAR点からの相補的特徴を四元数空間内の画像特徴に統合する,新しい多モード3D検出器LiteFusionを導入する。
論文 参考訳(メタデータ) (2025-12-23T10:16:33Z) - A Lightweight Real-Time Low-Light Enhancement Network for Embedded Automotive Vision Systems [19.109645267196864]
UltraFast-LieNETは、リアルタイム低照度画像強調のための軽量なマルチスケールシフト畳み込みネットワークである。
LOLI-Streetデータセットの結果、PSNRは26.51dBであり、180のパラメータしか利用せず、4.6dBの最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2025-12-02T17:44:25Z) - High-resolution Photo Enhancement in Real-time: A Laplacian Pyramid Network [73.19214585791268]
本稿では,LLF-LUT++と呼ばれるピラミッドネットワークについて紹介する。
具体的には,ダウンサンプリング画像のグローバル音節特性を活かした画像適応型3D LUTを利用する。
LLF-LUT++は、HDR+データセット上でPSNRが2.64dB改善されただけでなく、4K解像度の画像を1つのGPUでわずか13msで処理することで、さらに削減されている。
論文 参考訳(メタデータ) (2025-10-13T16:52:32Z) - PocketSR: The Super-Resolution Expert in Your Pocket Mobiles [69.26751136689533]
リアルワールド・イメージ・スーパーレゾリューション (RealSR) は、携帯電話が捉えたような、Wild内の画像の視覚的品質を高めることを目的としている。
大規模な生成モデルを利用する既存の手法は印象的な結果を示しているが、計算コストとレイテンシが高いため、エッジ配置には実用的ではない。
超軽量単一ステップモデルであるPocketSRを導入し,高忠実度を維持しつつ生成モデリング機能をRealSRにもたらす。
論文 参考訳(メタデータ) (2025-10-03T13:56:18Z) - Unsupervised Ultra-High-Resolution UAV Low-Light Image Enhancement: A Benchmark, Metric and Framework [9.515570339229962]
低照度条件は、重要な用途において無人航空機(UAV)の性能を著しく低下させる。
既存の低照度画像強調法(LIE)は、航空画像のユニークな課題に対処する。
我々は、LIEのための初の教師なしUHR UAVデータセットであるU3Dについて、統一評価ツールキットを用いて紹介する。
第二に、エッジ効率指数(EEI)は、知覚品質と主要な展開要因のバランスをとる新しい指標である。
論文 参考訳(メタデータ) (2025-09-01T11:20:07Z) - MobileIE: An Extremely Lightweight and Effective ConvNet for Real-Time Image Enhancement on Mobile Devices [30.034447271429034]
約4Kパラメータを持つ非常に軽量な畳み込みニューラルネットワーク(CNN)フレームワークを導入する。
私たちは、最大1,100フレーム毎秒(FPS)のリアルタイムIE推論を初めて達成しました。
論文 参考訳(メタデータ) (2025-07-02T15:53:44Z) - LightFormer: A lightweight and efficient decoder for remote sensing image segmentation [12.003743832147403]
構造化されていないターゲットを含む時間クリティカルなタスクのための軽量デコーダであるLightFormerを紹介します。
LightFormerは、チャネル処理上に構築された機能融合および改良モジュールと、学習可能なゲーティング機構を使用して、マルチスケール、マルチレンジ情報を効率的に集約する。
ISPRS Vaihingenベンチマークでは、LightFormerはGLFFNetのmIoUの99.9%を獲得し、FLOPの14.7%とパラメータの15.9%しか必要としていない。
論文 参考訳(メタデータ) (2025-04-15T03:25:39Z) - LightGen: Efficient Image Generation through Knowledge Distillation and Direct Preference Optimization [37.236005953016175]
LightGenは、画像生成モデルのための効率的なトレーニングパラダイムである。
最先端(SOTA)テキスト・ツー・イメージモデルから知識を抽出し、コンパクトなMasked Autoregressiveアーキテクチャに変換する。
実験では、LightGenがSOTAモデルに匹敵する画像生成品質を達成することを確認した。
論文 参考訳(メタデータ) (2025-03-11T16:58:02Z) - Illuminating Darkness: Enhancing Real-world Low-light Scenes with Smartphone Images [47.39277249268179]
このデータセットは、挑戦的な照明条件(0.1-200 lux)の下で、スマートフォンセンサーで捉えた6,425のユニークな焦点整列画像対からなる。
ベンチマークのために400ペアを保存しながら、6,025の収集されたシーンから180,000の非重複パッチを抽出し、精査した。
それに加えて、異なるソースから2,117個の低照度シーンを収集し、広範囲の現実世界の美的評価を行った。
論文 参考訳(メタデータ) (2025-03-10T04:01:56Z) - Striving for Faster and Better: A One-Layer Architecture with Auto Re-parameterization for Low-Light Image Enhancement [50.93686436282772]
我々は、視覚的品質と計算効率の両方から、画像エンハンサーの限界を掘り下げることを目指している。
タスク要求を再考することにより、視覚的品質と計算効率がモデル学習と構造設計に対応する、明示的な接続を構築する。
最終的には、単一の畳み込み層のみを使用して、優れた視覚的品質を維持しながら、効率的な低照度画像強調を実現する。
論文 参考訳(メタデータ) (2025-02-27T08:20:03Z) - BRIGHT-VO: Brightness-Guided Hybrid Transformer for Visual Odometry with Multi-modality Refinement Module [11.898515581215708]
視覚計測(VO)は、自律運転、ロボットナビゲーション、その他の関連するタスクにおいて重要な役割を果たす。
本稿では,トランスフォーマーアーキテクチャに基づく新しいVOモデルであるBrightVOを紹介し,フロントエンドの視覚的特徴抽出を行う。
ポーズグラフ最適化を用いて、このモジュールは、エラーを減らし、精度とロバスト性の両方を改善するために、ポーズ推定を反復的に洗練する。
論文 参考訳(メタデータ) (2025-01-15T08:50:52Z) - BVI-RLV: A Fully Registered Dataset and Benchmarks for Low-Light Video Enhancement [56.97766265018334]
本稿では,2つの異なる低照度条件下での様々な動きシナリオを持つ40のシーンからなる低照度映像データセットを提案する。
我々は、プログラム可能なモータードリーを用いて、通常の光で捉えた完全に登録された地上真実データを提供し、異なる光レベルにわたるピクセルワイドフレームアライメントのための画像ベースアプローチによりそれを洗練する。
実験の結果,Low-light Video enhancement (LLVE) における完全登録ビデオペアの重要性が示された。
論文 参考訳(メタデータ) (2024-07-03T22:41:49Z) - Ultra-High-Definition Low-Light Image Enhancement: A Benchmark and
Transformer-Based Method [51.30748775681917]
低照度画像強調(LLIE)の課題を考察し,4K解像度と8K解像度の画像からなる大規模データベースを導入する。
我々は、系統的なベンチマーク研究を行い、現在のLLIEアルゴリズムと比較する。
第2のコントリビューションとして,変換器をベースとした低照度化手法であるLLFormerを紹介する。
論文 参考訳(メタデータ) (2022-12-22T09:05:07Z) - Data-Model-Circuit Tri-Design for Ultra-Light Video Intelligence on Edge
Devices [90.30316433184414]
本稿では,HDビデオストリーム上での高スループット,低コスト,高精度MOTのためのデータモデル・ハードウエア・トリデザイン・フレームワークを提案する。
現状のMOTベースラインと比較して、我々の三設計アプローチは12.5倍の遅延低減、20.9倍のフレームレート改善、5.83倍の低消費電力、9.78倍のエネルギー効率を実現でき、精度は低下しない。
論文 参考訳(メタデータ) (2022-10-16T16:21:40Z) - Toward Fast, Flexible, and Robust Low-Light Image Enhancement [87.27326390675155]
我々は、現実の低照度シナリオにおいて、高速でフレキシブルで頑健な鮮明化のための新しい自己校正イルミネーション(SCI)学習フレームワークを開発した。
カスケードパターンの計算負担を考慮すると、各ステージの結果の収束を実現する自己校正モジュールを構築する。
我々は,SCI固有の特性について,操作不感適応性やモデル非関係の一般性を含む包括的探索を行う。
論文 参考訳(メタデータ) (2022-04-21T14:40:32Z) - Learning Deep Context-Sensitive Decomposition for Low-Light Image
Enhancement [58.72667941107544]
典型的なフレームワークは、照明と反射を同時に推定することであるが、特徴空間にカプセル化されたシーンレベルの文脈情報を無視する。
本研究では,空間スケールにおけるシーンレベルのコンテキスト依存を生かした,コンテキスト依存型分解ネットワークアーキテクチャを提案する。
チャネル数を減らして軽量なCSDNet(LiteCSDNet)を開発する。
論文 参考訳(メタデータ) (2021-12-09T06:25:30Z) - A Retinex based GAN Pipeline to Utilize Paired and Unpaired Datasets for
Enhancing Low Light Images [0.0]
本稿では,ペアとアンペアの両方のデータセットから学習可能な,新しいディープラーニングパイプラインを提案する。
標準損失を最小限にするために最適化されたCNNと、敵損失を最小限にするために最適化されたGAN(Generative Adversarial Networks)を使用する。
論文 参考訳(メタデータ) (2020-06-27T07:12:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。