論文の概要: A Lightweight Real-Time Low-Light Enhancement Network for Embedded Automotive Vision Systems
- arxiv url: http://arxiv.org/abs/2512.02965v1
- Date: Tue, 02 Dec 2025 17:44:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.9849
- Title: A Lightweight Real-Time Low-Light Enhancement Network for Embedded Automotive Vision Systems
- Title(参考訳): 組込み自動車ビジョンシステムのための軽量リアルタイム低光強調ネットワーク
- Authors: Yuhan Chen, Yicui Shi, Guofa Li, Guangrui Bai, Jinyuan Shao, Xiangfei Huang, Wenbo Chu, Keqiang Li,
- Abstract要約: UltraFast-LieNETは、リアルタイム低照度画像強調のための軽量なマルチスケールシフト畳み込みネットワークである。
LOLI-Streetデータセットの結果、PSNRは26.51dBであり、180のパラメータしか利用せず、4.6dBの最先端の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 19.109645267196864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In low-light environments like nighttime driving, image degradation severely challenges in-vehicle camera safety. Since existing enhancement algorithms are often too computationally intensive for vehicular applications, we propose UltraFast-LieNET, a lightweight multi-scale shifted convolutional network for real-time low-light image enhancement. We introduce a Dynamic Shifted Convolution (DSConv) kernel with only 12 learnable parameters for efficient feature extraction. By integrating DSConv with varying shift distances, a Multi-scale Shifted Residual Block (MSRB) is constructed to significantly expand the receptive field. To mitigate lightweight network instability, a residual structure and a novel multi-level gradient-aware loss function are incorporated. UltraFast-LieNET allows flexible parameter configuration, with a minimum size of only 36 parameters. Results on the LOLI-Street dataset show a PSNR of 26.51 dB, outperforming state-of-the-art methods by 4.6 dB while utilizing only 180 parameters. Experiments across four benchmark datasets validate its superior balance of real-time performance and enhancement quality under limited resources. Code is available at https://githubhttps://github.com/YuhanChen2024/UltraFast-LiNET
- Abstract(参考訳): 夜間運転のような低照度環境では、画像劣化は車内カメラの安全性に深刻な課題となる。
既存のエンハンスメントアルゴリズムは、車載アプリケーションには計算集約的すぎることが多いため、リアルタイム低照度画像エンハンスメントのための軽量なマルチスケールシフト畳み込みネットワークであるUltraFast-LieNETを提案する。
動的シフトコンボリューション(DSConv)カーネルを導入し,12個の学習可能なパラメータで効率的な特徴抽出を行う。
DSConvを様々なシフト距離と統合することにより、マルチスケールシフト残留ブロック(MSRB)を構築し、受容場を著しく拡張する。
軽量ネットワーク不安定性を軽減するために、残差構造と新しい多レベル勾配認識損失関数を組み込む。
UltraFast-LieNETはフレキシブルなパラメータ設定を可能にする。
LOLI-Streetデータセットの結果、PSNRは26.51dBであり、180のパラメータしか利用せず、4.6dBの最先端の手法よりも優れていた。
4つのベンチマークデータセットに対する実験は、限られたリソース下でのリアルタイムパフォーマンスと品質向上のバランスが優れていることを検証する。
コードはhttps://githubhttps://github.com/YuhanChen2024/UltraFast-LiNETで入手できる。
関連論文リスト
- Large Kernel Modulation Network for Efficient Image Super-Resolution [5.875680381119361]
Large Kernel Modulation Network (LKMN) は純粋なCNNベースのモデルである。
LKMNには2つのコアコンポーネントがある: Enhanced partial Large Kernel Block (EPLKB) と Cross-Gate Feed-Forward Network (CGFN) である。
LKMN-L は Manga109 データセットの DAT-light よりも 0.23 dB PSNR の改善を 4 ドルアップスケールで達成し、ほぼ 4.8 倍高速である。
論文 参考訳(メタデータ) (2025-08-16T03:43:14Z) - Towards Lightest Low-Light Image Enhancement Architecture for Mobile Devices [3.7651572719063178]
モバイルおよび組み込みデバイス上でのリアルタイム低照度画像強調には、視覚的品質と計算効率のバランスをとるモデルが必要である。
大規模監視への依存を解消する超軽量無監督強化フレームワーク LiteIE を提案する。
LiteIEは、わずか58パラメータの4Kイメージで30 FPSで動作し、エッジデバイスへのリアルタイムデプロイメントを可能にする。
論文 参考訳(メタデータ) (2025-07-06T07:36:47Z) - DnLUT: Ultra-Efficient Color Image Denoising via Channel-Aware Lookup Tables [60.95483707212802]
DnLUTは、リソース消費を最小限に抑えながら高品質なカラーイメージを実現する、超効率的なルックアップテーブルベースのフレームワークである。
Pairwise Channel Mixer(PCM)は、チャネル間の相関関係と空間的依存関係を並列に効果的にキャプチャし、L字型畳み込み設計により受容界のカバレッジを最大化する。
これらのコンポーネントをトレーニング後に最適化されたルックアップテーブルに変換することで、DnLUTは、CNNの競合であるDnCNNと比較して500KBのストレージと0.1%のエネルギー消費しか必要とせず、20倍高速な推論を実現している。
論文 参考訳(メタデータ) (2025-03-20T08:15:29Z) - Binarized Low-light Raw Video Enhancement [49.65466843856074]
ディープニューラルネットワークは、低照度生ビデオの強化において優れたパフォーマンスを実現している。
本稿では,低照度生ビデオエンハンスメントに超コンパクトなバイナリニューラルネットワーク(BNN)を適用する可能性について検討する。
論文 参考訳(メタデータ) (2024-03-29T02:55:07Z) - ACNPU: A 4.75TOPS/W 1080P@30FPS Super Resolution Accelerator with
Decoupled Asymmetric Convolution [0.0502254944841629]
深層学習駆動型超解像(SR)は従来の技術より優れているが、高複雑性とメモリ帯域幅の課題に直面している。
本稿では,エネルギー効率の高いSR加速器ACNPUを提案する。
ACNPUは27層モデルで画質を0.34dB向上させるが、FSRCNNよりも36%の複雑さを必要とする。
論文 参考訳(メタデータ) (2023-08-30T07:23:32Z) - FastLLVE: Real-Time Low-Light Video Enhancement with Intensity-Aware
Lookup Table [21.77469059123589]
我々は,フレーム間輝度の一貫性を効果的に維持するために,FastLLVEという名前の効率的なパイプラインを提案する。
FastLLVEは1080pのビデオを$mathit50+$ Frames Per Second (FPS)で処理できる。
論文 参考訳(メタデータ) (2023-08-13T11:54:14Z) - SFNet: Faster and Accurate Semantic Segmentation via Semantic Flow [88.97790684009979]
性能を改善するための一般的な実践は、強力な意味表現を持つ高解像度の特徴写像を得ることである。
隣接レベルの特徴マップ間のテキストセマンティックフローを学習するためのフローアライメントモジュール(FAM)を提案する。
また,高分解能特徴写像と低分解能特徴写像を直接整列するGated Dual Flow Alignment Moduleを提案する。
論文 参考訳(メタデータ) (2022-07-10T08:25:47Z) - FCL-GAN: A Lightweight and Real-Time Baseline for Unsupervised Blind
Image Deblurring [72.43250555622254]
本稿では,周波数領域の競合損失制約型軽量サイクルGANと呼ばれる,軽量でリアルタイムな非教師付きBIDベースラインを提案する。
FCL-GANは、画像領域制限がなく、画像解像度制限がなく、SOTAより25倍軽く、SOTAより5倍高速である。
いくつかの画像データセットの実験では、性能、モデルサイズ、参照時間の観点からFCL-GANの有効性が示されている。
論文 参考訳(メタデータ) (2022-04-16T15:08:03Z) - Asymmetric CNN for image super-resolution [102.96131810686231]
深層畳み込みニューラルネットワーク(CNN)は、過去5年間で低レベルビジョンに広く適用されています。
画像超解像のための非対称ブロック(AB)、mem?ory拡張ブロック(MEB)、高周波数特徴強調ブロック(HFFEB)からなる非対称CNN(ACNet)を提案する。
我々のACNetは、ブラインドノイズの単一画像超解像(SISR)、ブラインドSISR、ブラインドSISRを効果的に処理できる。
論文 参考訳(メタデータ) (2021-03-25T07:10:46Z) - GhostSR: Learning Ghost Features for Efficient Image Super-Resolution [49.393251361038025]
畳み込みニューラルネットワーク(CNN)に基づく単一の画像スーパーリゾリューション(SISR)システムは、膨大な計算コストを必要としながら派手なパフォーマンスを実現します。
SISRモデルの冗長な特徴(すなわちゴースト特徴)を生成するためにシフト演算を用いることを提案する。
提案モジュールに埋め込まれた非コンパクトかつ軽量なSISRモデルの両方が,ベースラインと同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-01-21T10:09:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。