論文の概要: JDATT: A Joint Distillation Framework for Atmospheric Turbulence Mitigation and Target Detection
- arxiv url: http://arxiv.org/abs/2507.19780v1
- Date: Sat, 26 Jul 2025 04:06:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:56.184937
- Title: JDATT: A Joint Distillation Framework for Atmospheric Turbulence Mitigation and Target Detection
- Title(参考訳): JDATT:大気乱流低減とターゲット検出のための共同蒸留フレームワーク
- Authors: Zhiming Liu, Paul Hill, Nantheera Anantrasirichai,
- Abstract要約: 大気の乱流(AT)は、リップリング、ぼかし、強度変動などの深刻な劣化をもたらす。
最近のディープラーニングベースのアプローチでは、トランスフォーマーとMambaアーキテクチャを使用したAT緩和が進んでいる。
大気乱流緩和とターゲット検出のための統合蒸留フレームワークであるJDATTを提案する。
- 参考スコア(独自算出の注目度): 4.233977712300247
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Atmospheric turbulence (AT) introduces severe degradations, such as rippling, blur, and intensity fluctuations, that hinder both image quality and downstream vision tasks like target detection. While recent deep learning-based approaches have advanced AT mitigation using transformer and Mamba architectures, their high complexity and computational cost make them unsuitable for real-time applications, especially in resource-constrained settings such as remote surveillance. Moreover, the common practice of separating turbulence mitigation and object detection leads to inefficiencies and suboptimal performance. To address these challenges, we propose JDATT, a Joint Distillation framework for Atmospheric Turbulence mitigation and Target detection. JDATT integrates state-of-the-art AT mitigation and detection modules and introduces a unified knowledge distillation strategy that compresses both components while minimizing performance loss. We employ a hybrid distillation scheme: feature-level distillation via Channel-Wise Distillation (CWD) and Masked Generative Distillation (MGD), and output-level distillation via Kullback-Leibler divergence. Experiments on synthetic and real-world turbulence datasets demonstrate that JDATT achieves superior visual restoration and detection accuracy while significantly reducing model size and inference time, making it well-suited for real-time deployment.
- Abstract(参考訳): 大気の乱流(AT)は、リッピング、ぼかし、強度のゆらぎなどの深刻な劣化を引き起こし、画像の品質と目標検出のような下流の視覚タスクを妨げている。
最近のディープラーニングベースのアプローチでは、トランスフォーマーとMambaアーキテクチャを使用したAT緩和が進んでいるが、その複雑さと計算コストが高いため、リアルタイムアプリケーション、特にリモート監視のようなリソース制約のある環境では適さない。
さらに、乱流緩和と物体検出を分離する一般的な手法は、非効率性と準最適性能をもたらす。
これらの課題に対処するため,大気乱流緩和とターゲット検出のための統合蒸留フレームワークであるJDATTを提案する。
JDATTは、最先端のAT緩和および検出モジュールを統合し、パフォーマンス損失を最小限に抑えながら両方のコンポーネントを圧縮する統合された知識蒸留戦略を導入する。
本稿では,CWD(Channel-Wise Distillation)とMGD(Masked Generative Distillation)による特徴量蒸留と,Kullback-Leiblerの発散による出力量蒸留というハイブリッド蒸留方式を用いる。
合成および実世界の乱流データセットの実験により、JDATTは、モデルサイズと推論時間を著しく削減し、より優れた視覚的復元と検出の精度を実現し、リアルタイムデプロイメントに適していることが示された。
関連論文リスト
- DMAT: An End-to-End Framework for Joint Atmospheric Turbulence Mitigation and Object Detection [7.0622384724837355]
大気乱流(AT)は、監視画像の明瞭さと精度を低下させる。
視覚的品質を改善するために深層学習に基づく手法が提案されているが、新しい歪みは依然として大きな問題である。
本稿では,変形した特徴を補償し,可視化とオブジェクト検出を同時に改善するフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-06T10:12:02Z) - Lightweight Task-Oriented Semantic Communication Empowered by Large-Scale AI Models [66.57755931421285]
大規模人工知能(LAI)モデルは、リアルタイム通信シナリオにおいて重大な課題を提起する。
本稿では,LAIモデルから知識を抽出・凝縮するために知識蒸留(KD)技術を活用することを提案する。
本稿では,反復推論の必要性を排除したプレストア圧縮機構を備えた高速蒸留法を提案する。
論文 参考訳(メタデータ) (2025-06-16T08:42:16Z) - Restoration Score Distillation: From Corrupted Diffusion Pretraining to One-Step High-Quality Generation [82.39763984380625]
Score Distillation (DSD) の原理的一般化である textitRestoration Score Distillation (RSD) を提案する。
RSDは、ぼやけた画像、不完全画像、低解像度画像など、広範囲の汚職タイプに対応している。
自然と科学の両方のデータセットの様々な復元作業において、教師モデルを一貫して上回っている。
論文 参考訳(メタデータ) (2025-05-19T17:21:03Z) - Steam Turbine Anomaly Detection: An Unsupervised Learning Approach Using Enhanced Long Short-Term Memory Variational Autoencoder [3.004788114489393]
ラベルなしデータセットの精度の高い教師なし異常検出のためのELSTMVAE-DAF-GMM(ELSTMVAE-DAF-GMM)を提案する。
VAEとLSTMを統合したELSTMVAEは,低次元位相空間に高次元時系列データを投影するために用いられた。
新たなDAF(Deep Advanced Feature)は、LSTMVAEモデルから遅延埋め込みと再構成の相違をハイブリダイズし、より包括的なデータ表現を提供する。
論文 参考訳(メタデータ) (2024-11-16T10:11:36Z) - Centerness-based Instance-aware Knowledge Distillation with Task-wise Mutual Lifting for Object Detection on Drone Imagery [32.60564590897137]
本稿では,ドローン画像の物体検出に知識蒸留(KD)を適用した最初の試みについて述べる。
本稿では,Centerness-based Instance-aware Distillation (CID) 戦略を用いたタスクワイド・ミューチュアル・リフティング (Light-ML) モジュールを提案する。
VisDrone、UAVDT、COCOベンチマークの実験では、提案手法が既存のKD法と同等な計算条件の精度を高めることが示されている。
論文 参考訳(メタデータ) (2024-11-05T07:09:27Z) - Efficient Diffusion as Low Light Enhancer [63.789138528062225]
RATR(Reflectance-Aware Trajectory Refinement)は、イメージの反射成分を用いて教師の軌跡を洗練するための、シンプルで効果的なモジュールである。
textbfReDDiT (textbfDistilled textbfTrajectory) は低照度画像強調(LLIE)に適した効率的で柔軟な蒸留フレームワークである。
論文 参考訳(メタデータ) (2024-10-16T08:07:18Z) - Bring the Power of Diffusion Model to Defect Detection [0.0]
拡散確率モデル(DDPM)は,特徴リポジトリとして構築する認知過程の特徴を抽出するために事前訓練される。
待ち行列特徴を再構成してフィルタして高次元DDPM特徴を得る。
実験結果から,本手法はいくつかの産業データセット上での競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-08-25T14:28:49Z) - One Step Diffusion-based Super-Resolution with Time-Aware Distillation [60.262651082672235]
拡散に基づく画像超解像(SR)法は,低解像度画像から細部まで細部まで,高解像度画像の再構成に有望であることを示す。
近年,拡散型SRモデルの知識蒸留によるサンプリング効率の向上が試みられている。
我々は,効率的な画像超解像を実現するため,TAD-SRというタイムアウェア拡散蒸留法を提案する。
論文 参考訳(メタデータ) (2024-08-14T11:47:22Z) - Distilling Diffusion Models into Conditional GANs [90.76040478677609]
複雑な多段階拡散モデルを1段階条件付きGAN学生モデルに蒸留する。
E-LatentLPIPSは,拡散モデルの潜在空間で直接動作する知覚的損失である。
我々は, 最先端の1ステップ拡散蒸留モデルよりも優れた1ステップ発生器を実証した。
論文 参考訳(メタデータ) (2024-05-09T17:59:40Z) - AT-DDPM: Restoring Faces degraded by Atmospheric Turbulence using
Denoising Diffusion Probabilistic Models [64.24948495708337]
大気の乱流は、ぼやけや幾何学的歪みを導入して画質を著しく劣化させる。
CNNベースやGANインバージョンベースなど,深層学習に基づく単一画像大気乱流低減手法が提案されている。
Denoising Diffusion Probabilistic Models (DDPMs) は、その安定したトレーニングプロセスと高品質な画像を生成する能力により、最近注目を集めている。
論文 参考訳(メタデータ) (2022-08-24T03:13:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。