論文の概要: Continual Test-Time Adaptation for Single Image Defocus Deblurring via Causal Siamese Networks
- arxiv url: http://arxiv.org/abs/2501.09052v2
- Date: Sun, 23 Feb 2025 07:45:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 22:39:45.863052
- Title: Continual Test-Time Adaptation for Single Image Defocus Deblurring via Causal Siamese Networks
- Title(参考訳): Causal Siamese Networkによる単一画像デフォーカスの連続的なテスト時間適応
- Authors: Shuang Cui, Yi Li, Jiangmeng Li, Xiongxin Tang, Bing Su, Fanjiang Xu, Hui Xiong,
- Abstract要約: SIDD (Single Image Defocus Deblurring) は、フォーカス内イメージを非焦点画像から復元することを目的としている。
非焦点画像における分布シフトは、一般に既存の手法の性能低下につながる。
本稿では,新しいシームズネットワークを用いた連続テスト時間適応フレームワークを提案する。
- 参考スコア(独自算出の注目度): 29.730411221998633
- License:
- Abstract: Single image defocus deblurring (SIDD) aims to restore an all-in-focus image from a defocused one. Distribution shifts in defocused images generally lead to performance degradation of existing methods during out-of-distribution inferences. In this work, we gauge the intrinsic reason behind the performance degradation, which is identified as the heterogeneity of lens-specific point spread functions. Empirical evidence supports this finding, motivating us to employ a continual test-time adaptation (CTTA) paradigm for SIDD. However, traditional CTTA methods, which primarily rely on entropy minimization, cannot sufficiently explore task-dependent information for pixel-level regression tasks like SIDD. To address this issue, we propose a novel Siamese networks-based continual test-time adaptation framework, which adapts source models to continuously changing target domains only requiring unlabeled target data in an online manner. To further mitigate semantically erroneous textures introduced by source SIDD models under severe degradation, we revisit the learning paradigm through a structural causal model and propose Causal Siamese networks (CauSiam). Our method leverages large-scale pre-trained vision-language models to derive discriminative universal semantic priors and integrates these priors into Siamese networks, ensuring causal identifiability between blurry inputs and restored images. Extensive experiments demonstrate that CauSiam effectively improves the generalization performance of existing SIDD methods in continuously changing domains.
- Abstract(参考訳): SIDD (Single Image Defocus Deblurring) は、焦点内画像のデフォーカスから復元することを目的としている。
デフォーカス画像の分布シフトは、通常、アウト・オブ・ディストリビューション推論中に既存の手法の性能低下を引き起こす。
本研究では、レンズ固有点展開関数の不均一性として認識される性能劣化の背後にある本質的な理由を測る。
SIDDにはCTTA(Continuous Test-time Adaption)パラダイムが採用されている。
しかし、エントロピーの最小化に大きく依存する従来のCTTA法では、SIDDのようなピクセルレベルの回帰タスクのタスク依存情報を十分に探索することはできない。
そこで本研究では,未ラベルのターゲットデータのみをオンライン形式で要求するターゲットドメインの連続的な変更にソースモデルを適用する,新しいSiameseネットワークベースの連続テスト時間適応フレームワークを提案する。
ソースSIDDモデルから導入された意味的誤ったテクスチャを高度に劣化させるため,構造因果モデルを用いて学習パラダイムを再検討し,Causal Siamese Network(CauSiam)を提案する。
提案手法は,大規模な事前学習型視覚言語モデルを用いて,識別的普遍的セマンティック先行を導出し,これらの先行をシームズネットワークに統合し,ぼやけた入力と復元された画像の因果識別性を確保する。
CauSiamは、連続的に変化する領域において、既存のSIDD法の一般化性能を効果的に向上することを示した。
関連論文リスト
- Model Will Tell: Training Membership Inference for Diffusion Models [15.16244745642374]
トレーニングメンバーシップ推論(TMI)タスクは、ターゲットモデルのトレーニングプロセスで特定のサンプルが使用されているかどうかを判断することを目的としている。
本稿では,拡散モデル内における本質的な生成先行情報を活用することで,TMIタスクの新たな視点を探求する。
論文 参考訳(メタデータ) (2024-03-13T12:52:37Z) - Fiducial Focus Augmentation for Facial Landmark Detection [4.433764381081446]
本稿では,モデルによる顔構造理解を高めるために,新しい画像強調手法を提案する。
我々は,Deep Canonical correlation Analysis (DCCA) に基づく損失を考慮した,シームズアーキテクチャに基づくトレーニング機構を採用している。
提案手法は,様々なベンチマークデータセットにおいて,最先端のアプローチよりも優れている。
論文 参考訳(メタデータ) (2024-02-23T01:34:00Z) - Cross-Modality Perturbation Synergy Attack for Person Re-identification [66.48494594909123]
相互モダリティReIDの主な課題は、異なるモダリティ間の視覚的差異を効果的に扱うことである。
既存の攻撃方法は、目に見える画像のモダリティの特徴に主に焦点を当てている。
本研究では,クロスモーダルReIDに特化して設計されたユニバーサル摂動攻撃を提案する。
論文 参考訳(メタデータ) (2024-01-18T15:56:23Z) - JoReS-Diff: Joint Retinex and Semantic Priors in Diffusion Model for Low-light Image Enhancement [69.6035373784027]
低照度画像強調(LLIE)は条件付き拡散モデルを用いて有望な性能を実現している。
従来手法は、タスク固有の条件戦略の十分な定式化の重要性を無視するものであった。
本稿では,Retinex および semantic-based pre-processing condition を付加した新しいアプローチである JoReS-Diff を提案する。
論文 参考訳(メタデータ) (2023-12-20T08:05:57Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Improving Diversity in Zero-Shot GAN Adaptation with Semantic Variations [61.132408427908175]
0ショットのGAN適応は、よく訓練されたジェネレータを再利用して、目に見えないターゲットドメインの画像を合成することを目的としている。
実際の画像の代わりに1つの代表的テキスト機能しか持たないため、合成された画像は徐々に多様性を損なう。
そこで本研究では,CLIP空間における対象テキストの意味的変化を見つけるための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-21T08:12:28Z) - Diffusion Models for Image Restoration and Enhancement -- A
Comprehensive Survey [96.99328714941657]
本稿では,近年の拡散モデルに基づく画像復元手法について概観する。
我々は、赤外線とブラインド/現実世界の両方で拡散モデルを用いて、革新的なデザインを分類し、強調する。
本稿では,拡散モデルに基づくIRの今後の研究に向けた5つの可能性と課題を提案する。
論文 参考訳(メタデータ) (2023-08-18T08:40:38Z) - Unsupervised Domain-Specific Deblurring using Scale-Specific Attention [0.25797036386508543]
スケール適応型アテンションモジュール (SAAM) を用いた教師なしドメイン固有のデブロアリングを提案する。
我々のネットワークはトレーニングのために教師付きペアを必要とせず、デブロアリング機構は主に敵の損失によって導かれる。
異なるアブレーション研究により、我々の粗粒度機構は、教師なしモデルよりも優れており、SAAMは文学で使用される注意モデルと比較して、より優れた参画が可能であることが示されている。
論文 参考訳(メタデータ) (2021-12-12T07:47:45Z) - Learning Discriminative Shrinkage Deep Networks for Image Deconvolution [122.79108159874426]
本稿では,これらの用語を暗黙的にモデル化する識別的縮小関数を学習することで,効果的に非盲検デコンボリューション手法を提案する。
実験結果から,提案手法は最先端の手法に対して,効率と精度の点で好適に動作することがわかった。
論文 参考訳(メタデータ) (2021-11-27T12:12:57Z) - MFIF-GAN: A New Generative Adversarial Network for Multi-Focus Image
Fusion [29.405149234582623]
マルチフォーカス画像融合(MFIF)は、オールインフォーカス画像を得るための有望な技術である。
MFIFの研究動向の1つは、フォーカス/デフォーカス境界(FDB)周辺のデフォーカス拡散効果(DSE)を回避することである。
我々は,MFIF-GANと呼ばれるネットワークを用いて,前景領域が対応する対象よりも正確に大きいフォーカスマップを生成する。
論文 参考訳(メタデータ) (2020-09-21T09:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。