論文の概要: Learnable Fractional Reaction-Diffusion Dynamics for Under-Display ToF Imaging and Beyond
- arxiv url: http://arxiv.org/abs/2511.01704v1
- Date: Mon, 03 Nov 2025 16:12:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.321173
- Title: Learnable Fractional Reaction-Diffusion Dynamics for Under-Display ToF Imaging and Beyond
- Title(参考訳): 直視下ToFイメージングのための学習可能なフラクタル反応拡散ダイナミクス
- Authors: Xin Qiao, Matteo Poggi, Xing Wei, Pengchao Deng, Yanhui Zhou, Stefano Mattoccia,
- Abstract要約: ディスプレイ下のToFイメージングは、スクリーンパネルの下に置かれたToFカメラを通じて正確な深度検知を実現することを目的としている。
本稿では,ニューラルネットワークの表現力と物理モデリングの解釈可能性を組み合わせたハイブリッドフレームワークLFRD2を提案する。
- 参考スコア(独自算出の注目度): 41.80709169876722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Under-display ToF imaging aims to achieve accurate depth sensing through a ToF camera placed beneath a screen panel. However, transparent OLED (TOLED) layers introduce severe degradations-such as signal attenuation, multi-path interference (MPI), and temporal noise-that significantly compromise depth quality. To alleviate this drawback, we propose Learnable Fractional Reaction-Diffusion Dynamics (LFRD2), a hybrid framework that combines the expressive power of neural networks with the interpretability of physical modeling. Specifically, we implement a time-fractional reaction-diffusion module that enables iterative depth refinement with dynamically generated differential orders, capturing long-term dependencies. In addition, we introduce an efficient continuous convolution operator via coefficient prediction and repeated differentiation to further improve restoration quality. Experiments on four benchmark datasets demonstrate the effectiveness of our approach. The code is publicly available at https://github.com/wudiqx106/LFRD2.
- Abstract(参考訳): ディスプレイ下のToFイメージングは、スクリーンパネルの下に置かれたToFカメラを通じて正確な深度検知を実現することを目的としている。
しかし、透明OLED(TOLED)層は、信号減衰、マルチパス干渉(MPI)、時間雑音などの深刻な劣化を招き、深さ品質を著しく損なう。
この欠点を軽減するために,ニューラルネットワークの表現力と物理モデリングの解釈可能性を組み合わせたハイブリッドフレームワークであるLearnerable Fractional Reaction-Diffusion Dynamics (LFRD2)を提案する。
具体的には、動的に生成された差分順序で反復的な深度改善を可能にし、長期的依存関係をキャプチャする時間差分拡散モジュールを実装した。
さらに, 効率の良い連続畳み込み演算子を係数予測と繰り返し微分により導入し, 復元精度を向上する。
4つのベンチマークデータセットの実験は、我々のアプローチの有効性を実証している。
コードはhttps://github.com/wudiqx106/LFRD2で公開されている。
関連論文リスト
- Exploring Fourier Prior and Event Collaboration for Low-Light Image Enhancement [1.8724535169356553]
イベントカメラは低照度画像強調のための性能向上を提供する。
現在、既存のイベントベースのメソッドは、フレームとイベントを直接単一のモデルにフィードする。
本稿では,振幅-位相絡み付き可視性回復ネットワークを提案する。
第2段階では、空間的ミスマッチを軽減するために、動的アライメントを伴う融合戦略を提案する。
論文 参考訳(メタデータ) (2025-08-01T04:25:00Z) - FUSE: Label-Free Image-Event Joint Monocular Depth Estimation via Frequency-Decoupled Alignment and Degradation-Robust Fusion [92.4205087439928]
画像強調共同深度推定法は、頑健な知覚に相補的なモダリティを利用するが、一般化可能性の課題に直面している。
自己監督型転送(PST)と周波数デカップリング型フュージョンモジュール(FreDF)を提案する。
PSTは、画像基盤モデルとの遅延空間アライメントによるクロスモーダルな知識伝達を確立し、データ不足を効果的に軽減する。
FreDFは、低周波構造成分から高周波エッジ特性を明示的に分離し、モード比周波数ミスマッチを解消する。
この組み合わせのアプローチにより、FUSEはターゲットデータセットに対する軽量デコーダ適応のみを必要とするユニバーサルなイメージイベントを構築することができる。
論文 参考訳(メタデータ) (2025-03-25T15:04:53Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - Single Image LDR to HDR Conversion using Conditional Diffusion [18.466814193413487]
デジタル画像は現実的なシーンを再現することを目的としているが、Low Dynamic Range(LDR)カメラは現実のシーンの広いダイナミックレンジを表現できない。
本稿では,影やハイライトから複雑な詳細を復元するための深層学習に基づくアプローチを提案する。
提案フレームワークにディープベースオートエンコーダを組み込んで,コンディショニングに使用するLDR画像の潜在表現の質を高める。
論文 参考訳(メタデータ) (2023-07-06T07:19:47Z) - Low-Light Image Enhancement with Wavelet-based Diffusion Models [50.632343822790006]
拡散モデルは画像復元作業において有望な結果を得たが、時間を要する、過剰な計算資源消費、不安定な復元に悩まされている。
本稿では,DiffLLと呼ばれる高能率かつ高能率な拡散型低光画像強調手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T03:08:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。