論文の概要: Continuous Exposure-Time Modeling for Realistic Atmospheric Turbulence Synthesis
- arxiv url: http://arxiv.org/abs/2603.01398v2
- Date: Tue, 03 Mar 2026 06:23:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 14:54:12.557098
- Title: Continuous Exposure-Time Modeling for Realistic Atmospheric Turbulence Synthesis
- Title(参考訳): 大気乱流合成のための連続露光時間モデリング
- Authors: Junwei Zeng, Dong Liang, Sheng-Jun Huang, Kun Zhan, Songcan Chen,
- Abstract要約: 大気の乱流は、幾何学的なワープと露光時間依存のぼかしを導入することで、長距離イメージングを著しく劣化させる。
既存の乱流効果の方法は、しばしばぼやけと露出時間の関係を単純化する。
我々は,連続露光時間モデリングを明示的に組み込んだ大規模合成乱流データセットET-Turbを構築した。
- 参考スコア(独自算出の注目度): 65.19146708498346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Atmospheric turbulence significantly degrades long-range imaging by introducing geometric warping and exposure-time-dependent blur, which adversely affects both visual quality and the performance of high-level vision tasks. Existing methods for synthesizing turbulence effects often oversimplify the relationship between blur and exposure-time, typically assuming fixed or binary exposure settings. This leads to unrealistic synthetic data and limited generalization capability of trained models. To address this gap, we revisit the modulation transfer function (MTF) formulation and propose a novel Exposure-Time-dependent MTF (ET-MTF) that models blur as a continuous function of exposure-time. For blur synthesis, we derive a tilt-invariant point spread function (PSF) from the ET-MTF, which, when integrated with a spatially varying blur-width field, provides a comprehensive and physically accurate characterization of turbulence-induced blur. Building on this synthesis pipeline, we construct ET-Turb, a large-scale synthetic turbulence dataset that explicitly incorporates continuous exposure-time modeling across diverse optical and atmospheric conditions. The dataset comprises 5,083 videos (2,005,835 frames), partitioned into 3,988 training and 1,095 test videos. Extensive experiments demonstrate that models trained on ET-Turb produce more realistic restorations and achieve superior generalization on real-world turbulence data compared to those trained on other datasets. The dataset is publicly available at: github.com/Jun-Wei-Zeng/ET-Turb.
- Abstract(参考訳): 大気の乱流は、幾何学的ワーピングと露光時間依存のぼかしを導入し、高レベルの視覚タスクの視覚的品質とパフォーマンスの両方に悪影響を及ぼすことで、長距離イメージングを著しく劣化させる。
乱流効果を合成する既存の方法は、しばしばぼやけと露出時間の関係を単純化する。
これは非現実的な合成データと、訓練されたモデルの限定的な一般化能力につながる。
このギャップに対処するために、変調伝達関数 (MTF) の定式化を再検討し、露光時間の連続関数としてブラーをモデル化する新しい露光時間依存型MTF (ET-MTF) を提案する。
ブラー合成のために, ET-MTFから傾斜不変点展開関数 (PSF) を導出し, 空間的に変化するブラー幅場と統合すると, 乱流誘起ブラーの包括的, 物理的に正確な評価を行う。
この合成パイプライン上に構築したET-Turbは大規模な合成乱流データセットであり、様々な光学的・大気的条件で連続的な露光時間モデリングを明示的に組み込む。
データセットは5,083ビデオ(2,005,835フレーム)からなり、3,988のトレーニングビデオと1,095のテストビデオに分割される。
ET-Turbでトレーニングされたモデルはより現実的な復元を行い、他のデータセットでトレーニングされたモデルと比較して現実世界の乱流データに優れた一般化を実現する。
データセットは、github.com/Jun-Wei-Zeng/ET-Turbで公開されている。
関連論文リスト
- SLCFormer: Spectral-Local Context Transformer with Physics-Grounded Flare Synthesis for Nighttime Flare Removal [12.135723445465551]
レンズフレア(英: Lens flare)は、カメラレンズ内で強力な光源が散乱することによって生じる、夜間の一般的な人工物である。
夜間レンズフレア除去のためのスペクトル局所コンテクストトランスフォーマフレームワークであるSLCFormerを提案する。
提案手法は,計測値と知覚的視覚的品質の両方において,既存の手法よりも優れた,最先端の性能を実現する。
論文 参考訳(メタデータ) (2025-12-17T09:16:59Z) - FAIM: Frequency-Aware Interactive Mamba for Time Series Classification [87.84511960413715]
時系列分類(TSC)は、環境モニタリング、診断、姿勢認識など、多くの実世界の応用において重要である。
本稿では,周波数対応対話型マンバモデルであるFAIMを提案する。
FAIMは既存の最先端(SOTA)手法を一貫して上回り、精度と効率のトレードオフが優れていることを示す。
論文 参考訳(メタデータ) (2025-11-26T08:36:33Z) - TIMED: Adversarial and Autoregressive Refinement of Diffusion-Based Time Series Generation [0.31498833540989407]
TIMEDは、フォワード-リバース拡散プロセスを通じてグローバル構造をキャプチャする統合生成フレームワークである。
特徴空間における実および合成分布をさらに整合させるため、TIMEDは最大平均離散性(MMD)損失を取り入れている。
我々は、TIMEDが最先端の生成モデルよりも現実的で時間的に一貫性のあるシーケンスを生成することを示す。
論文 参考訳(メタデータ) (2025-09-23T23:05:40Z) - EGTM: Event-guided Efficient Turbulence Mitigation [19.09752432962073]
乱流緩和(TM)は、大気の乱流によってもたらされる歪みやぼやけをフレームカメラに除去することを目的としている。
本稿では, 時間的ラッキー融合のために, ノイズの多い乱流イベントから, 画素レベルの信頼性の高い乱れのないガイダンスを抽出する新しいEGTMフレームワークを提案する。
実世界のイベント駆動TMデータセットにコントリビュートするための,最初の乱流データ取得システムを構築した。
論文 参考訳(メタデータ) (2025-09-04T01:49:13Z) - FUSE: Label-Free Image-Event Joint Monocular Depth Estimation via Frequency-Decoupled Alignment and Degradation-Robust Fusion [92.4205087439928]
画像強調共同深度推定法は、頑健な知覚に相補的なモダリティを利用するが、一般化可能性の課題に直面している。
自己監督型転送(PST)と周波数デカップリング型フュージョンモジュール(FreDF)を提案する。
PSTは、画像基盤モデルとの遅延空間アライメントによるクロスモーダルな知識伝達を確立し、データ不足を効果的に軽減する。
FreDFは、低周波構造成分から高周波エッジ特性を明示的に分離し、モード比周波数ミスマッチを解消する。
この組み合わせのアプローチにより、FUSEはターゲットデータセットに対する軽量デコーダ適応のみを必要とするユニバーサルなイメージイベントを構築することができる。
論文 参考訳(メタデータ) (2025-03-25T15:04:53Z) - Unpaired Deblurring via Decoupled Diffusion Model [55.21345354747609]
UID-Diffは,未知領域における劣化性能の向上を目的とした生成拡散モデルである。
構造的特徴とぼかしパターン抽出器を別々に用いて, 抽出した特徴は, 合成データに対する教師付きデブロアリングタスクと教師なしのぼかし転送タスクに使用される。
実世界のデータセットの実験では、UID-Diffが既存の最先端の手法よりも、ぼやけた除去と構造保存に優れていることが示されている。
論文 参考訳(メタデータ) (2025-02-03T17:00:40Z) - Atmospheric Turbulence Correction via Variational Deep Diffusion [23.353013333671335]
拡散モデルは、フォトリアリスティック画像合成などにおいて素晴らしい成果を上げている。
本研究では,大気乱流補正問題の解法として,変分推論に基づく新しい深部拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-05-08T22:35:07Z) - Blur Interpolation Transformer for Real-World Motion from Blur [52.10523711510876]
本稿では, ボケの時間的相関を解き明かすために, 符号化されたブラー変換器(BiT)を提案する。
マルチスケール残留スウィン変圧器ブロックに基づいて、両端の時間的監督と時間対称なアンサンブル戦略を導入する。
さらに,1対1のぼやけたビデオペアの最初の実世界のデータセットを収集するハイブリッドカメラシステムを設計する。
論文 参考訳(メタデータ) (2022-11-21T13:10:10Z) - AT-DDPM: Restoring Faces degraded by Atmospheric Turbulence using
Denoising Diffusion Probabilistic Models [64.24948495708337]
大気の乱流は、ぼやけや幾何学的歪みを導入して画質を著しく劣化させる。
CNNベースやGANインバージョンベースなど,深層学習に基づく単一画像大気乱流低減手法が提案されている。
Denoising Diffusion Probabilistic Models (DDPMs) は、その安定したトレーニングプロセスと高品質な画像を生成する能力により、最近注目を集めている。
論文 参考訳(メタデータ) (2022-08-24T03:13:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。