論文の概要: Contrastive-SDE: Guiding Stochastic Differential Equations with Contrastive Learning for Unpaired Image-to-Image Translation
- arxiv url: http://arxiv.org/abs/2510.03821v1
- Date: Sat, 04 Oct 2025 14:37:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.277366
- Title: Contrastive-SDE: Guiding Stochastic Differential Equations with Contrastive Learning for Unpaired Image-to-Image Translation
- Title(参考訳): コントラスト-SDE:未知の画像から画像への変換のためのコントラスト学習による確率微分方程式の導出
- Authors: Venkata Narendra Kotyada, Revanth Eranki, Nagesh Bhattu Sristy,
- Abstract要約: 画像から画像への変換の欠如は、整列されたサンプルや対応するサンプルがない場合に、ソースドメインとターゲットドメインの間のマッピングを学習することを伴う。
そこで本研究では,SimCLRを用いたモデル学習において,画像とその領域不規則な特徴を正のペアとして考慮し,時間依存型コントラスト学習手法を提案する。
本研究では,コントラスト-SDEを3つの共通I2Iタスクにまたがる複数のベースラインと経験的に比較し,評価に4つの指標を用いた。
- 参考スコア(独自算出の注目度): 1.1470070927586018
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unpaired image-to-image translation involves learning mappings between source domain and target domain in the absence of aligned or corresponding samples. Score based diffusion models have demonstrated state-of-the-art performance in generative tasks. Their ability to approximate complex data distributions through stochastic differential equations (SDEs) enables them to generate high-fidelity and diverse outputs, making them particularly well-suited for unpaired I2I settings. In parallel, contrastive learning provides a powerful framework for learning semantic similarities without the need for explicit supervision or paired data. By pulling together representations of semantically similar samples and pushing apart dissimilar ones, contrastive methods are inherently aligned with the objectives of unpaired translation. Its ability to selectively enforce semantic consistency at the feature level makes contrastive learning particularly effective for guiding generation in unpaired scenarios. In this work, we propose a time-dependent contrastive learning approach where a model is trained with SimCLR by considering an image and its domain invarient feature as a positive pair, enabling the preservation of domain-invariant features and the discarding of domain-specific ones. The learned contrastive model then guides the inference of a pretrained SDE for the I2I translation task. We empirically compare Contrastive-SDE with several baselines across three common unpaired I2I tasks, using four metrics for evaluation. Constrastive-SDE achieves comparable results to the state-of-the-art on several metrics. Furthermore, we observe that our model converges significantly faster and requires no label supervision or classifier training, making it a more efficient alternative for this task.
- Abstract(参考訳): 画像から画像への変換の欠如は、整列されたサンプルや対応するサンプルがない場合に、ソースドメインとターゲットドメインの間のマッピングを学習することを伴う。
スコアベース拡散モデルは、生成タスクにおける最先端の性能を実証している。
確率微分方程式(SDE)によって複雑なデータ分布を近似する能力により、高忠実で多様な出力を生成できるようになり、特に未ペアI2I設定に適している。
対照的に、対照的な学習は、明示的な監督やペアデータを必要としない、意味的な類似性を学ぶための強力なフレームワークを提供する。
意味論的に類似したサンプルの表現をまとめて、異種を分解することにより、コントラスト的手法は本質的に、未翻訳の目的と一致している。
機能レベルでセマンティック一貫性を選択的に強制する能力は、対照的な学習を特に、障害のないシナリオで生成を導くのに効果的にします。
そこで本研究では,SimCLRを用いた時間依存型コントラスト学習手法を提案する。この手法では,画像とそのドメイン不可変特徴を正のペアとして考慮し,ドメイン不変特徴の保存とドメイン固有特徴の破棄を可能にする。
学習されたコントラストモデルにより、I2I翻訳タスクの事前訓練されたSDEの推測が導かれる。
本研究では,コントラスト-SDEを3つの共通I2Iタスクにまたがる複数のベースラインと経験的に比較し,評価に4つの指標を用いた。
Constrastive-SDEは、いくつかのメトリクスで最先端の結果に匹敵する結果を得る。
さらに,本モデルは非常に高速に収束し,ラベルの監督や分類器の訓練を必要とせず,より効率的な代替手段となることが観察された。
関連論文リスト
- Ambiguity-Aware and High-Order Relation Learning for Multi-Grained Image-Text Matching [6.633576185707164]
本稿では,これらの問題に対処するためのAmbiguity-Aware and High-order Relation Learning framework (AAHR)を提案する。
このフレームワークはグローバルかつ局所的な特徴抽出機構と適応集約ネットワークを導入し、完全な意味理解能力を大幅に強化する。
実験の結果、AAHRはFlickr30K、MSCOCO、ECCV Captionデータセットの既存の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-07-12T11:30:32Z) - Underlying Semantic Diffusion for Effective and Efficient In-Context Learning [113.4003355229632]
Underlying Semantic Diffusion (US-Diffusion)は、セマンティック学習、計算効率、文脈内学習能力を高める拡張拡散モデルである。
本稿では,フィードバック信号を利用したフィードバック支援学習(FAL)フレームワークを提案する。
また,高雑音レベルの時間ステップで高密度サンプリングを行うためのプラグイン・アンド・プレイの効率的なサンプリング戦略(ESS)を提案する。
論文 参考訳(メタデータ) (2025-03-06T03:06:22Z) - Distractors-Immune Representation Learning with Cross-modal Contrastive Regularization for Change Captioning [71.14084801851381]
変更キャプションは、類似した画像間のセマンティックな変化を簡潔に記述することを目的としている。
既存のほとんどの手法は、それらの違いを直接キャプチャし、エラーを起こしやすい特徴を得るリスクを負う。
本稿では,2つの画像表現の対応するチャネルを関連づけるイントラクタ免疫表現学習ネットワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T13:00:33Z) - DEMO: A Statistical Perspective for Efficient Image-Text Matching [32.256725860652914]
本稿では,効率的な画像テキストマッチングのための分散型構造マイニングと一貫性学習(DEMO)を提案する。
DEMOは、複数の拡張ビューを使用して各画像を特徴付け、本質的な意味分布から引き出されたサンプルと見なされる。
さらに,ハミング空間の類似構造を保存するだけでなく,異なる方向からの検索分布の整合性も促進する協調的一貫性学習を導入する。
論文 参考訳(メタデータ) (2024-05-19T09:38:56Z) - Synergistic Anchored Contrastive Pre-training for Few-Shot Relation
Extraction [4.7220779071424985]
Few-shot Relation extract (FSRE) は、ラベル付きコーパスのスパースセットから事実を抽出することを目的としている。
近年の研究では、事前学習言語モデルを用いたFSREの有望な結果が示されている。
本稿では,新しい相乗的アンカー付きコントラスト事前学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-19T10:16:24Z) - Revisiting the Evaluation of Image Synthesis with GANs [55.72247435112475]
本研究では, 合成性能の評価に関する実証的研究を行い, 生成モデルの代表としてGAN(Generative Adversarial Network)を用いた。
特に、表現空間におけるデータポイントの表現方法、選択したサンプルを用いた公平距離の計算方法、各集合から使用可能なインスタンス数など、さまざまな要素の詳細な分析を行う。
論文 参考訳(メタデータ) (2023-04-04T17:54:32Z) - Fine-grained Temporal Contrastive Learning for Weakly-supervised
Temporal Action Localization [87.47977407022492]
本稿では,シーケンス・ツー・シーケンスの区別を文脈的に比較することで学習が,弱い教師付き行動の局所化に不可欠な帰納的バイアスをもたらすことを論じる。
微分可能な動的プログラミングの定式化の下では、FSD(Fen-fine Sequence Distance)とLCS(Longest Common Subsequence)の2つの相補的コントラストが設計されている。
提案手法は,2つのベンチマークにおいて最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-03-31T05:13:50Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Delving into Inter-Image Invariance for Unsupervised Visual
Representations [108.33534231219464]
画像間不変学習の役割をよりよく理解するための研究を提案する。
オンラインラベルはオフラインラベルよりも早く収束する。
半硬な負のサンプルは、硬い負のサンプルよりも信頼性が高く、偏りがない。
論文 参考訳(メタデータ) (2020-08-26T17:44:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。