論文の概要: Time-variant Image Inpainting via Interactive Distribution Transition Estimation
- arxiv url: http://arxiv.org/abs/2506.23461v1
- Date: Mon, 30 Jun 2025 01:45:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.886172
- Title: Time-variant Image Inpainting via Interactive Distribution Transition Estimation
- Title(参考訳): 対話型分布遷移推定による時間変化画像の描画
- Authors: Yun Xing, Qing Guo, Xiaoguang Li, Yihao Huang, Xiaofeng Cao, Di Lin, Ivor Tsang, Lei Ma,
- Abstract要約: TAMP(Time-vAriant iMage inPainting)に焦点をあてる。
TAMPの目的は、参照画像からの補完情報を活用することにより、損傷対象画像を復元することである。
特に, 最新技術(SOTA)を参照誘導画像の塗布方法でさえ, 妥当な結果が得られないことが本研究で確認された。
- 参考スコア(独自算出の注目度): 26.494764995338954
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we focus on a novel and practical task, i.e., Time-vAriant iMage inPainting (TAMP). The aim of TAMP is to restore a damaged target image by leveraging the complementary information from a reference image, where both images captured the same scene but with a significant time gap in between, i.e., time-variant images. Different from conventional reference-guided image inpainting, the reference image under TAMP setup presents significant content distinction to the target image and potentially also suffers from damages. Such an application frequently happens in our daily lives to restore a damaged image by referring to another reference image, where there is no guarantee of the reference image's source and quality. In particular, our study finds that even state-of-the-art (SOTA) reference-guided image inpainting methods fail to achieve plausible results due to the chaotic image complementation. To address such an ill-posed problem, we propose a novel Interactive Distribution Transition Estimation (InDiTE) module which interactively complements the time-variant images with adaptive semantics thus facilitate the restoration of damaged regions. To further boost the performance, we propose our TAMP solution, namely Interactive Distribution Transition Estimation-driven Diffusion (InDiTE-Diff), which integrates InDiTE with SOTA diffusion model and conducts latent cross-reference during sampling. Moreover, considering the lack of benchmarks for TAMP task, we newly assembled a dataset, i.e., TAMP-Street, based on existing image and mask datasets. We conduct experiments on the TAMP-Street datasets under two different time-variant image inpainting settings, which show our method consistently outperform SOTA reference-guided image inpainting methods for solving TAMP.
- Abstract(参考訳): 本研究では,TAMP(Time-vAriant iMage inPainting)という,新規で実用的なタスクに焦点を当てる。
TAMPの目的は、両方の画像が同じシーンをキャプチャするが時間差、すなわち時間変化のある画像の間にかなりの時間差がある参照画像からの補完情報を活用することにより、損傷したターゲット画像の復元である。
従来の参照誘導画像の塗装とは違って、TAMP設定下の参照画像は、ターゲット画像に重要な内容の区別を呈し、潜在的に損傷を被る可能性がある。
このようなアプリケーションは、他の参照画像を参照することで損傷したイメージを復元するために、日常生活で頻繁に発生する。
特に, 最新技術(SOTA)を参照誘導画像の塗布方法でさえ, カオス的な画像補完により, 妥当な結果が得られないことがわかった。
このような問題に対処するために,時間変動画像と適応的意味論を相互に補完し,損傷領域の復元を容易にするインタラクティブ分布遷移推定(InDiTE)モジュールを提案する。
そこで本研究では,InDiTEとSOTA拡散モデルを統合し,サンプリング中に遅延相互参照を行う対話型分散遷移推定拡散法(InDiTE-Diff)を提案する。
さらに、TAMPタスクのベンチマークの欠如を考慮して、既存の画像およびマスクデータセットに基づいて、TAMP-Streetというデータセットを新たに組み立てた。
TAMP-Streetデータセットを2つの異なる時間変化画像塗装条件下で実験し、この方法では、TAMPを解くためのSOTA参照誘導画像塗装法を一貫して上回っていることを示す。
関連論文リスト
- Shielded Diffusion: Generating Novel and Diverse Images using Sparse Repellency [29.083402085790016]
本稿では,事前学習した拡散モデルのサンプル軌跡を,参照集合外に落下する画像上に着陸させる手法を提案する。
生成軌道全体にわたって拡散SDEに反発項を追加することでこれを実現できる。
一般的な拡散モデルにSPELLを追加することで、FIDにわずかに影響を与えながら多様性が向上し、最近のトレーニングフリーの多様性手法よりも比較的優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2024-10-08T13:26:32Z) - Mitigating Data Consistency Induced Discrepancy in Cascaded Diffusion Models for Sparse-view CT Reconstruction [4.227116189483428]
本研究は, 離散性緩和フレームワークを用いた新規なカスケード拡散について紹介する。
潜在空間の低画質画像生成と画素空間の高画質画像生成を含む。
これは、いくつかの推論ステップをピクセル空間から潜在空間に移すことによって計算コストを最小化する。
論文 参考訳(メタデータ) (2024-03-14T12:58:28Z) - fRegGAN with K-space Loss Regularization for Medical Image Translation [42.253647362909476]
GAN(Generative Adversarial Network)は、現実的な画像の生成において顕著な成功を収めている。
GANは低周波の周波数バイアスに悩まされる傾向にあり、それによって生成された画像の重要な構造が取り除かれる。
本稿では,fRegGANと呼ばれる教師付きRegGANアプローチに基づく新しい周波数対応画像画像変換フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-28T12:49:10Z) - Image Deblurring by Exploring In-depth Properties of Transformer [86.7039249037193]
我々は、事前訓練された視覚変換器(ViT)から抽出した深い特徴を活用し、定量的な測定値によって測定された性能を犠牲にすることなく、回復した画像のシャープ化を促進する。
得られた画像と対象画像の変換器特徴を比較することにより、事前学習された変換器は、高解像度のぼやけた意味情報を提供する。
特徴をベクトルとみなし、抽出された画像から抽出された表現とユークリッド空間における対象表現との差を計算する。
論文 参考訳(メタデータ) (2023-03-24T14:14:25Z) - Diffusion-based Image Translation using Disentangled Style and Content
Representation [51.188396199083336]
セマンティックテキストや単一のターゲット画像でガイドされた拡散ベースの画像変換により、柔軟なスタイル変換が可能になった。
逆拡散中、画像の原内容を維持することはしばしば困難である。
本稿では,不整合スタイルとコンテンツ表現を用いた新しい拡散に基づく教師なし画像翻訳手法を提案する。
提案手法は,テキスト誘導と画像誘導の両方の翻訳作業において,最先端のベースラインモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-09-30T06:44:37Z) - Treatment Learning Causal Transformer for Noisy Image Classification [62.639851972495094]
本研究では,この2値情報「ノイズの存在」を画像分類タスクに組み込んで予測精度を向上させる。
因果的変動推定から動機付け,雑音画像分類のための頑健な特徴表現を潜在生成モデルを用いて推定するトランスフォーマーに基づくアーキテクチャを提案する。
また、パフォーマンスベンチマークのための幅広いノイズ要素を取り入れた、新しいノイズの多い画像データセットも作成する。
論文 参考訳(メタデータ) (2022-03-29T13:07:53Z) - A Hierarchical Transformation-Discriminating Generative Model for Few
Shot Anomaly Detection [93.38607559281601]
各トレーニングイメージのマルチスケールパッチ分布をキャプチャする階層的生成モデルを開発した。
この異常スコアは、スケール及び画像領域にわたる正しい変換のパッチベースの投票を集約して得られる。
論文 参考訳(メタデータ) (2021-04-29T17:49:48Z) - Flow-based Deformation Guidance for Unpaired Multi-Contrast MRI
Image-to-Image Translation [7.8333615755210175]
本稿では,非可逆的アーキテクチャに基づく画像と画像の非対角変換に対する新しいアプローチを提案する。
我々は、連続スライス間の時間的情報を利用して、不適切な医療画像において、あるドメインを別のドメインに変換する最適化により多くの制約を与える。
論文 参考訳(メタデータ) (2020-12-03T09:10:22Z) - GAIT: Gradient Adjusted Unsupervised Image-to-Image Translation [5.076419064097734]
対向損失を利用して、翻訳された画像セットと対象画像セットの分布を一致させる。
これにより、2つの領域が例えば一様領域において異なる辺分布を持つようなアーティファクトが生成される。
本稿では,翻訳後の一様領域を保存する教師なしIITを提案する。
論文 参考訳(メタデータ) (2020-09-02T08:04:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。