論文の概要: RT-Focuser: A Real-Time Lightweight Model for Edge-side Image Deblurring
- arxiv url: http://arxiv.org/abs/2512.21975v1
- Date: Fri, 26 Dec 2025 10:41:25 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 11:57:39.225122
- Title: RT-Focuser: A Real-Time Lightweight Model for Edge-side Image Deblurring
- Title(参考訳): RT-Focuser:エッジ側画像劣化のためのリアルタイム軽量モデル
- Authors: Zhuoyu Wu, Wenhui Ou, Qiawei Zheng, Jiayan Yang, Quanjun Wang, Wenqi Fang, Zheng Wang, Yongkui Yang, Heshan Li,
- Abstract要約: 動きのぼかしは、自律運転、UAV知覚、医療画像などのリアルタイムアプリケーションに課題をもたらす。
本稿では,リアルタイムデブロアリングに適した軽量なU字型ネットワークを提示し,RT-Focuserと名付けた。
GPUとモバイルの両方で1フレームあたり6msで動作し、どちらも140FPSを超え、エッジへのデプロイの可能性も高い。
- 参考スコア(独自算出の注目度): 5.541337332126691
- License:
- Abstract: Motion blur caused by camera or object movement severely degrades image quality and poses challenges for real-time applications such as autonomous driving, UAV perception, and medical imaging. In this paper, a lightweight U-shaped network tailored for real-time deblurring is presented and named RT-Focuser. To balance speed and accuracy, we design three key components: Lightweight Deblurring Block (LD) for edge-aware feature extraction, Multi-Level Integrated Aggregation module (MLIA) for encoder integration, and Cross-source Fusion Block (X-Fuse) for progressive decoder refinement. Trained on a single blurred input, RT-Focuser achieves 30.67 dB PSNR with only 5.85M parameters and 15.76 GMACs. It runs 6ms per frame on GPU and mobile, exceeds 140 FPS on both, showing strong potential for deployment on the edge. The official code and usage are available on: https://github.com/ReaganWu/RT-Focuser.
- Abstract(参考訳): カメラや物体の動きによって引き起こされる動きのぼかしは、画像の品質を著しく低下させ、自律運転、UAV知覚、医用画像などのリアルタイムアプリケーションに課題をもたらす。
本稿では,リアルタイムデブロアリングに適した軽量なU字型ネットワークを提示し,RT-Focuserと名付けた。
速度と精度のバランスをとるために、エッジ認識機能抽出のための軽量デブロアリングブロック(LD)、エンコーダ統合のためのマルチレベル統合アグリゲーションモジュール(MLIA)、プログレッシブデコーダ改善のためのクロスソースフュージョンブロック(X-Fuse)の3つの重要なコンポーネントを設計する。
1つのぼやけた入力で訓練され、RT-Focuserは5.85Mパラメータと15.76GMACしか持たない30.67dBのPSNRを達成した。
GPUとモバイルの両方で1フレームあたり6msで動作し、どちらも140FPSを超え、エッジへのデプロイの可能性も高い。
公式コードと使用法は、https://github.com/ReaganWu/RT-Focuser.comで公開されている。
関連論文リスト
- A Lightweight Real-Time Low-Light Enhancement Network for Embedded Automotive Vision Systems [19.109645267196864]
UltraFast-LieNETは、リアルタイム低照度画像強調のための軽量なマルチスケールシフト畳み込みネットワークである。
LOLI-Streetデータセットの結果、PSNRは26.51dBであり、180のパラメータしか利用せず、4.6dBの最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2025-12-02T17:44:25Z) - SMF-VO: Direct Ego-Motion Estimation via Sparse Motion Fields [4.710825549574638]
本稿では,Sparse Motion Field Visual Odometry (SMF-VO)を紹介した。
提案手法では,視線速度と視線速度を直接推定し,明示的なポーズ推定や高価なランドマーク追跡の必要性を回避している。
我々の研究は、従来の方法に代わるスケーラブルで効率的な代替手段を確立し、モバイルロボティクスやウェアラブルデバイスに非常に適している。
論文 参考訳(メタデータ) (2025-11-12T07:47:22Z) - PocketSR: The Super-Resolution Expert in Your Pocket Mobiles [69.26751136689533]
リアルワールド・イメージ・スーパーレゾリューション (RealSR) は、携帯電話が捉えたような、Wild内の画像の視覚的品質を高めることを目的としている。
大規模な生成モデルを利用する既存の手法は印象的な結果を示しているが、計算コストとレイテンシが高いため、エッジ配置には実用的ではない。
超軽量単一ステップモデルであるPocketSRを導入し,高忠実度を維持しつつ生成モデリング機能をRealSRにもたらす。
論文 参考訳(メタデータ) (2025-10-03T13:56:18Z) - Speedy MASt3R [68.47052557089631]
MASt3Rは、DUSt3Rを活用して高速な相互マッチング方式を導入することで、画像マッチングを3Dタスクとして再定義する。
高速MASt3Rは、精度を犠牲にすることなく、推論時間(画像ペアあたり198msから91ms)を54%削減する。
この進歩により、リアルタイムな3D理解が可能になり、複合現実ナビゲーションや大規模3Dシーン再構築といったアプリケーションに恩恵をもたらす。
論文 参考訳(メタデータ) (2025-03-13T03:56:22Z) - RFWNet: A Lightweight Remote Sensing Object Detector Integrating Multiscale Receptive Fields and Foreground Focus Mechanism [10.997183129304409]
本研究では,マルチスケールの受容場とフォアグラウンドの焦点機構を統合した,効率的かつ軽量なRSODアルゴリズムを提案する。
総合的な実験の結果、RFWNetの平均精度は95.3%、平均精度は73.2%に達した。
論文 参考訳(メタデータ) (2025-03-01T16:02:15Z) - Distributed Radiance Fields for Edge Video Compression and Metaverse
Integration in Autonomous Driving [13.536641570721798]
メタバースは 物理的な要素と デジタル要素を組み合わせた 仮想空間だ 没入型で接続された デジタル世界を創りだす
デジタルツイン(DT)は仮想プロトタイピング、予測などを提供する。
DTは、現実世界の幾何学、外観、ダイナミクスをキャプチャする3Dシーン再構成手法で作成することができる。
論文 参考訳(メタデータ) (2024-02-22T15:39:58Z) - Event-guided Multi-patch Network with Self-supervision for Non-uniform
Motion Deblurring [113.96237446327795]
本稿では,ぼやけた画像やビデオを扱うための,イベント誘導型深層階層型マルチパッチネットワークを提案する。
また、ビデオ内の複雑なぼやけに対処するために、動画に含まれる動きの手がかりを利用するイベント誘導アーキテクチャを提案する。
我々のMPNは、現在のマルチスケール手法に比べて40倍高速なランタイムでGoProとVideoDeblurringデータセットの最先端を達成しています。
論文 参考訳(メタデータ) (2023-02-14T15:58:00Z) - BEVFusion: Multi-Task Multi-Sensor Fusion with Unified Bird's-Eye View Representation [105.96557764248846]
本稿では,汎用マルチタスクマルチセンサ融合フレームワークであるBEVFusionを紹介する。
共有鳥眼ビュー表示空間におけるマルチモーダル特徴を統一する。
3Dオブジェクト検出では1.3%高いmAPとNDS、BEVマップのセグメンテーションでは13.6%高いmIoU、コストは1.9倍である。
論文 参考訳(メタデータ) (2022-05-26T17:59:35Z) - FOVEA: Foveated Image Magnification for Autonomous Navigation [53.69803081925454]
入力キャンバスを小さく保ちながら、ある領域を弾性的に拡大する注意的アプローチを提案する。
提案手法は,高速R-CNNより高速かつ微調整の少ない検出APを高速化する。
Argoverse-HD と BDD100K の自律走行データセットでは,提案手法が標準の高速 R-CNN を超越した検出APを微調整なしで促進することを示す。
論文 参考訳(メタデータ) (2021-08-27T03:07:55Z) - A Light-Weight Object Detection Framework with FPA Module for Optical
Remote Sensing Imagery [12.762588615997624]
本稿では,効率的なアンカーフリー物体検出器CenterFPANetを提案する。
速度を追求するために、軽量なバックボーンを使用し、非対称な革命ブロックを導入する。
この戦略は、検出速度を低下させることなく、リモートセンシング画像オブジェクト検出の精度を向上させることができる。
論文 参考訳(メタデータ) (2020-09-07T12:41:17Z) - A Single Stream Network for Robust and Real-time RGB-D Salient Object
Detection [89.88222217065858]
我々は、深度マップを用いて、RGBと深度の間の早期融合と中核融合を誘導する単一ストリームネットワークを設計する。
このモデルは、現在の最も軽量なモデルよりも55.5%軽く、32 FPSのリアルタイム速度で384倍の384ドルの画像を処理している。
論文 参考訳(メタデータ) (2020-07-14T04:40:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。