論文の概要: FRBNet: Revisiting Low-Light Vision through Frequency-Domain Radial Basis Network
- arxiv url: http://arxiv.org/abs/2510.23444v1
- Date: Mon, 27 Oct 2025 15:46:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.59756
- Title: FRBNet: Revisiting Low-Light Vision through Frequency-Domain Radial Basis Network
- Title(参考訳): FRBNet:周波数領域ラジアルバスネットワークによる低照度ビジョンの再検討
- Authors: Fangtong Sun, Congyu Li, Ke Yang, Yuchen Pan, Hanwen Yu, Xichuan Zhang, Yiying Li,
- Abstract要約: 我々は、低照度画像形成を再考し、古典ランベルトモデルを拡張して、低照度条件をより正確に特徴付ける。
textbfFrequency- domain textbfRadial textbfBasis textbfNetwork。
プラグアンドプレイモジュールとして、FRBNetは損失関数を変更することなく、ダウンストリームタスクのために既存のネットワークに統合することができる。
- 参考スコア(独自算出の注目度): 7.386546521017689
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-light vision remains a fundamental challenge in computer vision due to severe illumination degradation, which significantly affects the performance of downstream tasks such as detection and segmentation. While recent state-of-the-art methods have improved performance through invariant feature learning modules, they still fall short due to incomplete modeling of low-light conditions. Therefore, we revisit low-light image formation and extend the classical Lambertian model to better characterize low-light conditions. By shifting our analysis to the frequency domain, we theoretically prove that the frequency-domain channel ratio can be leveraged to extract illumination-invariant features via a structured filtering process. We then propose a novel and end-to-end trainable module named \textbf{F}requency-domain \textbf{R}adial \textbf{B}asis \textbf{Net}work (\textbf{FRBNet}), which integrates the frequency-domain channel ratio operation with a learnable frequency domain filter for the overall illumination-invariant feature enhancement. As a plug-and-play module, FRBNet can be integrated into existing networks for low-light downstream tasks without modifying loss functions. Extensive experiments across various downstream tasks demonstrate that FRBNet achieves superior performance, including +2.2 mAP for dark object detection and +2.9 mIoU for nighttime segmentation. Code is available at: https://github.com/Sing-Forevet/FRBNet.
- Abstract(参考訳): 低照度ビジョンは、検出やセグメンテーションといった下流のタスクのパフォーマンスに大きく影響するため、コンピュータビジョンの基本的な課題である。
最近の最先端手法では、不変な特徴学習モジュールによって性能が向上しているが、低照度条件の不完全モデリングのため、まだ不足している。
そこで我々は,低照度画像の生成を再検討し,従来のランベルトモデルを拡張して,低照度条件をより正確に特徴付ける。
周波数領域に解析をシフトすることにより、周波数領域のチャネル比を利用して、構造的フィルタリングプロセスを通じて照明不変の特徴を抽出できることを理論的に証明する。
次に、周波数領域のチャネル比演算を学習可能な周波数領域フィルタと統合して、照度不変の特徴拡張を行う、新しい、エンドツーエンドのトレーニング可能なモジュールを提案する。
プラグアンドプレイモジュールとして、FRBNetは損失関数を変更することなく、ダウンストリームタスクのために既存のネットワークに統合することができる。
FRBNetは、暗黒物体の検出のための+2.2 mAPや、夜間のセグメンテーションのための+2.9 mIoUなど、様々な下流タスクにわたる大規模な実験により、優れた性能を発揮することを示した。
コードは、https://github.com/Sing-Forevet/FRBNet.comで入手できる。
関連論文リスト
- DFDNet: Dynamic Frequency-Guided De-Flare Network [8.713784455593778]
本稿では,周波数領域内のフレアアーティファクトからコンテンツ情報を分離する動的周波数誘導型フレアネットワーク(DFDNet)を提案する。
実験結果から,提案手法は既存の最先端手法よりも性能的に優れていることが示された。
論文 参考訳(メタデータ) (2025-07-23T13:14:59Z) - Lightweight Federated Learning over Wireless Edge Networks [83.4818741890634]
Federated (FL) はネットワークエッジの代替品であるが、無線ネットワークでは代替品である。
閉形式式FL収束ギャップ伝送パワー,モデルプルーニング誤差,量子化を導出する。
LTFLは、実世界のデータセットの実験において最先端のスキームよりも優れている。
論文 参考訳(メタデータ) (2025-07-13T09:14:17Z) - FADPNet: Frequency-Aware Dual-Path Network for Face Super-Resolution [70.61549422952193]
計算コストの制限による顔超解像(FSR)は未解決の問題である。
既存のアプローチでは、全ての顔のピクセルを等しく扱い、計算資源を最適以下に割り当てる。
本稿では、低周波成分と高周波成分に顔の特徴を分解する周波数対応デュアルパスネットワークであるFADPNetを提案する。
論文 参考訳(メタデータ) (2025-06-17T02:33:42Z) - WTEFNet: Real-Time Low-Light Object Detection for Advanced Driver Assistance Systems [11.584271733469476]
WTEFNetは、低照度シナリオ用に特別に設計されたリアルタイムオブジェクト検出フレームワークである。
WTEFNetは、LLEモジュール、ウェーブレットベースの特徴抽出(WFE)モジュール、アダプティブフュージョン検出(AFFD)モジュールの3つのコアモジュールから構成されている。
論文 参考訳(メタデータ) (2025-05-29T07:36:27Z) - Rethinking Transformer-Based Blind-Spot Network for Self-Supervised Image Denoising [94.09442506816724]
BSN(Blind-spot Network)は、自己教師付き画像復調(SSID)におけるニューラルネットワークアーキテクチャとして広く使われている。
本研究では,Transformer ベースの Blind-Spot Network (TBSN) を構築した。
論文 参考訳(メタデータ) (2024-04-11T15:39:10Z) - Frequency-Modulated Point Cloud Rendering with Easy Editing [46.299091125921656]
新規なビュー合成のための効率的なポイントクラウドレンダリングパイプラインを開発する。
私たちのパイプラインはリアルタイムレンダリングとユーザフレンドリな編集をサポートしています。
暗黙的なレンダリングとは対照的に、私たちのパイプラインはポイントクラウド操作に基づく高忠実なインタラクティブな編集をサポートしています。
論文 参考訳(メタデータ) (2023-03-14T02:37:11Z) - Feature Flow: In-network Feature Flow Estimation for Video Object
Detection [56.80974623192569]
光の流れはコンピュータビジョンのタスクで広く使われ、ピクセルレベルのモーション情報を提供する。
一般的なアプローチは、ニューラルネットワークへの前向き光学フローと、タスクデータセット上のこのネットワークの微調整である。
ビデオオブジェクト検出のための textbfIn-network textbfFeature textbfFlow 推定モジュールを用いた新しいネットワーク (IFF-Net) を提案する。
論文 参考訳(メタデータ) (2020-09-21T07:55:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。