論文の概要: Equivariant Learning for Unsupervised Image Dehazing
- arxiv url: http://arxiv.org/abs/2601.13986v1
- Date: Tue, 20 Jan 2026 14:01:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.339264
- Title: Equivariant Learning for Unsupervised Image Dehazing
- Title(参考訳): 教師なし画像復調のための等変学習
- Authors: Zhang Wen, Jiangwei Xie, Dongdong Chen,
- Abstract要約: Image Dehazing (ID)は、ヘイズによって汚染された観察から透明な画像を生成することを目的としている。
EID(Equivariant Image Dehazing)と呼ばれる新しい教師なし学習フレームワークを提案する。
EIDは、画像信号の対称性を利用して、鮮明さをヘイズな観察に復元する。
- 参考スコア(独自算出の注目度): 9.981292757725852
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image Dehazing (ID) aims to produce a clear image from an observation contaminated by haze. Current ID methods typically rely on carefully crafted priors or extensive haze-free ground truth, both of which are expensive or impractical to acquire, particularly in the context of scientific imaging. We propose a new unsupervised learning framework called Equivariant Image Dehazing (EID) that exploits the symmetry of image signals to restore clarity to hazy observations. By enforcing haze consistency and systematic equivariance, EID can recover clear patterns directly from raw, hazy images. Additionally, we propose an adversarial learning strategy to model unknown haze physics and facilitate EID learning. Experiments on two scientific image dehazing benchmarks (including cell microscopy and medical endoscopy) and on natural image dehazing have demonstrated that EID significantly outperforms state-of-the-art approaches. By unifying equivariant learning with modelling haze physics, we hope that EID will enable more versatile and effective haze removal in scientific imaging. Code and datasets will be published.
- Abstract(参考訳): Image Dehazing (ID)は、ヘイズによって汚染された観察から透明な画像を生成することを目的としている。
現行のID法は、特に科学的イメージングの文脈において、特に取得に費用がかからない、あるいは非現実的な、慎重に構築された先行や広範囲なヘイズフリーの真実に依存している。
EID(Equivariant Image Dehazing)と呼ばれる新しい教師なし学習フレームワークを提案する。
ヘイズ一貫性と系統的均等さを強制することにより、EIDは生のぼやけた画像から直接鮮明なパターンを復元することができる。
さらに,未知のヘイズ物理をモデル化し,EDD学習を促進するための逆学習戦略を提案する。
細胞顕微鏡と医用内視鏡を含む2つの科学的画像デハージングベンチマークと自然画像デハージングの実験は、EIDが最先端のアプローチを著しく上回ることを示した。
ヘイズ物理をモデル化して同変学習を統一することにより、EIDが科学画像においてより汎用的で効果的なヘイズ除去を可能にすることを期待する。
コードとデータセットが公開される。
関連論文リスト
- Learning Hazing to Dehazing: Towards Realistic Haze Generation for Real-World Image Dehazing [59.43187521828543]
本稿では,現実的なヘイズ画像生成フレームワーク(HazeGen)と拡散に基づくデハズ・フレームワーク(DiffDehaze)からなる,新しいヘイズ・デハズ・パイプラインを紹介する。
HazeGenは、事前訓練されたテキスト-画像拡散モデルに埋め込まれた実世界のハジー画像の堅牢な生成拡散先を利用する。
HazeGenは、特殊なハイブリッドトレーニングと混合サンプリング戦略を採用することで、DiffDehazeの高品質なトレーニングデータとして、現実的で多様なハジーイメージを生成する。
論文 参考訳(メタデータ) (2025-03-25T01:55:39Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Unsupervised contrastive analysis for anomaly detection in brain MRIs via conditional diffusion models [13.970483987621135]
本研究では、健康な画像に対して自己教師付きコントラストエンコーダを訓練することにより、再建品質を改善するための教師なしフレームワークを提案する。
これらの特徴は、拡散モデルを用いて、与えられた画像の健全な外観を再構成し、画素ワイド比較による解釈可能な異常な局所化を可能にする。
論文 参考訳(メタデータ) (2024-06-02T15:19:07Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - Adversarial-Robust Transfer Learning for Medical Imaging via Domain
Assimilation [17.46080957271494]
医用画像が公開されていないため、現代のアルゴリズムは、大量の自然画像に基づいて事前訓練されたモデルに依存するようになった。
自然画像と医療画像の間に重要なエムドメインの相違があり、AIモデルは敵の攻撃に対するエムの脆弱性を高める。
本稿では,テクスチャと色適応を伝達学習に導入する Em ドメイン同化手法を提案する。
論文 参考訳(メタデータ) (2024-02-25T06:39:15Z) - MAEDiff: Masked Autoencoder-enhanced Diffusion Models for Unsupervised
Anomaly Detection in Brain Images [40.89943932086941]
脳画像における教師なし異常検出のためのMasked Autoencoder-enhanced Diffusion Model (MAEDiff)を提案する。
MAEDiffは、階層的なパッチ分割を含む。上層パッチを重畳して健全なイメージを生成し、サブレベルパッチで動作するマスク付きオートエンコーダに基づくメカニズムを実装し、未通知領域の状態を高める。
論文 参考訳(メタデータ) (2024-01-19T08:54:54Z) - Robust Single Image Dehazing Based on Consistent and Contrast-Assisted
Reconstruction [95.5735805072852]
画像復調モデルのロバスト性を改善するための新しい密度変分学習フレームワークを提案する。
具体的には、デハジングネットワークは、一貫性の規則化されたフレームワークの下で最適化されている。
我々の手法は最先端のアプローチを大きく上回っている。
論文 参考訳(メタデータ) (2022-03-29T08:11:04Z) - Self-supervised Pseudo Multi-class Pre-training for Unsupervised Anomaly
Detection and Segmentation in Medical Images [31.676609117780114]
教師なし異常検出(UAD)法は、正常な(または健康な)画像のみを用いて訓練されるが、テスト中は正常な(または正常な)画像と異常な画像を分類することができる。
コントラスト学習(PMSACL)によるPseudo Multi-class Strong Augmentation(Pseudo Multi-class Strong Augmentation)という,MIA UADアプリケーションのための自己指導型事前学習手法を提案する。
論文 参考訳(メタデータ) (2021-09-03T04:25:57Z) - FD-GAN: Generative Adversarial Networks with Fusion-discriminator for
Single Image Dehazing [48.65974971543703]
画像デハージングのためのFusion-Discriminator (FD-GAN) を用いた完全エンドツーエンドのジェネレータネットワークを提案する。
我々のモデルは、より自然でリアルなデハズド画像を生成することができ、色歪みは少なく、アーティファクトも少ない。
実験により, 提案手法は, 公開合成データセットと実世界の画像の両方において, 最先端の性能に達することが示された。
論文 参考訳(メタデータ) (2020-01-20T04:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。