論文の概要: Analogical Image Translation for Fog Generation
- arxiv url: http://arxiv.org/abs/2006.15618v1
- Date: Sun, 28 Jun 2020 14:33:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 02:52:03.769135
- Title: Analogical Image Translation for Fog Generation
- Title(参考訳): 霧発生のための類似画像翻訳
- Authors: Rui Gong, Dengxin Dai, Yuhua Chen, Wen Li, Luc Van Gool
- Abstract要約: AITは、合成クリアウェザー画像、合成霧画像、および真のクリアウェザー画像を用いて学習し、トレーニング中に本物の霧画像を見ることなく、本物のクリアウェザー画像に霧効果を加える。
AITは、合成ドメインにおける教師付きトレーニングスキームと、実ドメインにおけるサイクル整合戦略と、2つのドメイン間の対角的トレーニングスキームと、新しいネットワーク設計とを結合して、このゼロショット画像翻訳能力を実現する。
- 参考スコア(独自算出の注目度): 114.39308837759329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image-to-image translation is to map images from a given \emph{style} to
another given \emph{style}. While exceptionally successful, current methods
assume the availability of training images in both source and target domains,
which does not always hold in practice. Inspired by humans' reasoning
capability of analogy, we propose analogical image translation (AIT). Given
images of two styles in the source domain: $\mathcal{A}$ and
$\mathcal{A}^\prime$, along with images $\mathcal{B}$ of the first style in the
target domain, learn a model to translate $\mathcal{B}$ to $\mathcal{B}^\prime$
in the target domain, such that $\mathcal{A}:\mathcal{A}^\prime
::\mathcal{B}:\mathcal{B}^\prime$. AIT is especially useful for translation
scenarios in which training data of one style is hard to obtain but training
data of the same two styles in another domain is available. For instance, in
the case from normal conditions to extreme, rare conditions, obtaining real
training images for the latter case is challenging but obtaining synthetic data
for both cases is relatively easy. In this work, we are interested in adding
adverse weather effects, more specifically fog effects, to images taken in
clear weather. To circumvent the challenge of collecting real foggy images, AIT
learns with synthetic clear-weather images, synthetic foggy images and real
clear-weather images to add fog effects onto real clear-weather images without
seeing any real foggy images during training. AIT achieves this zero-shot image
translation capability by coupling a supervised training scheme in the
synthetic domain, a cycle consistency strategy in the real domain, an
adversarial training scheme between the two domains, and a novel network
design. Experiments show the effectiveness of our method for zero-short image
translation and its benefit for downstream tasks such as semantic foggy scene
understanding.
- Abstract(参考訳): 画像から画像への変換は、与えられた \emph{style} から別の与えられた \emph{style} への画像のマッピングである。
例外的に成功したが、現在の手法では、ソースドメインとターゲットドメインの両方でトレーニングイメージが利用可能であると仮定している。
人間のアナロジー推論能力に触発され,アナログ画像翻訳(AIT)を提案する。
ソースドメイン内の2つのスタイルのイメージが与えられた: $\mathcal{a}$ と $\mathcal{a}^\prime$ 対象ドメインの最初のスタイルである$\mathcal{b}$ とともに、$\mathcal{a}:\mathcal{a}^\prime ::\mathcal{b}:\mathcal{b}^\prime$ を対象ドメインで翻訳するモデルを学ぶ。
AITは、あるスタイルのトレーニングデータが入手し難いが、別のドメインで同じ2スタイルのトレーニングデータが利用可能である翻訳シナリオで特に有用である。
例えば、通常状態から極端に稀な状況まで、後者の実際の訓練画像を取得することは困難であるが、両方のケースで合成データを取得することは比較的容易である。
この研究では、晴れた天気で撮影された画像に悪天候、特に霧の影響を加えることに興味があります。
実際の霧画像の収集の難しさを回避するため、aitは合成霧画像、合成霧画像、および本物の霧画像を用いて学習し、訓練中に実際の霧画像を見ることなく、実際の霧画像に霧効果を加える。
aitは、合成ドメインにおける教師付きトレーニングスキーム、実ドメインにおけるサイクル一貫性戦略、2つのドメイン間の敵対的トレーニングスキーム、新しいネットワーク設計を結合することにより、このゼロショット画像翻訳能力を実現する。
実験では,ゼロショート画像翻訳手法の有効性と,セマンティックフォギーシーン理解などの下流タスクにおける有用性を示す。
関連論文リスト
- CycleNet: Rethinking Cycle Consistency in Text-Guided Diffusion for
Image Manipulation [57.836686457542385]
拡散モデル(DM)は画像合成タスクのブレークスルーを実現するが、一貫したイメージ・ツー・イメージ(I2I)翻訳のための直感的なインタフェースは欠如している。
本稿では,画像操作を正規化するためのDMにサイクル一貫性を組み込んだ,新しくてシンプルな手法であるCyclenetを紹介する。
論文 参考訳(メタデータ) (2023-10-19T21:32:21Z) - ACE: Zero-Shot Image to Image Translation via Pretrained
Auto-Contrastive-Encoder [2.1874189959020427]
本研究では,同じデータ分布内のサンプルの類似点と相違点を学習し,画像の特徴を抽出する手法を提案する。
ACEの設計により、画像翻訳タスクのトレーニングを初めて行うことなく、ゼロショット画像から画像への変換を実現することができる。
本モデルは,ゼロショット学習を用いたマルチモーダル画像翻訳タスクにおける競合的な結果も達成する。
論文 参考訳(メタデータ) (2023-02-22T23:52:23Z) - What is Where by Looking: Weakly-Supervised Open-World Phrase-Grounding
without Text Inputs [82.93345261434943]
入力画像が与えられたら、そのオブジェクトを記述した画像とフレーズのバウンディングボックスを返します。
これは、入力画像内のオブジェクトがローカライゼーション機構のトレーニング中に遭遇しなかった可能性のあるオープンワールドパラダイム内で実現される。
本研究は, 弱教師付きセグメンテーションと句接頭辞を一般化し, 両領域の最先端技術として実証的に示す。
論文 参考訳(メタデータ) (2022-06-19T09:07:30Z) - Synthetic-to-Real Domain Adaptation using Contrastive Unpaired
Translation [28.19031441659854]
手動のアノテーションを使わずにトレーニングデータを取得するための多段階手法を提案する。
3Dオブジェクトメッシュから,現代的な合成パイプラインを用いて画像を生成する。
合成画像の実際の領域への適応に最先端のイメージ・ツー・イメージ変換法を用いる。
論文 参考訳(メタデータ) (2022-03-17T17:13:23Z) - ISF-GAN: An Implicit Style Function for High-Resolution Image-to-Image
Translation [55.47515538020578]
本研究は,マルチモーダル画像とマルチドメイン画像の直接変換を実現する暗黙的スタイル関数 (ISF) を提案する。
ヒトの顔と動物に対する手術の結果は,ベースラインよりも有意に改善した。
我々のモデルは、事前訓練された無条件GANを用いて、高解像度で費用対効果の高いマルチモーダル・アントラクショナル・イメージ・ツー・イメージ翻訳を可能にする。
論文 参考訳(メタデータ) (2021-09-26T04:51:39Z) - Domain Adaptation for Image Dehazing [72.15994735131835]
既存のほとんどの方法は、合成ヘイズ画像のデハージングモデルを訓練するが、ドメインシフトによる実際のヘイズ画像の一般化は困難である。
画像変換モジュールと2つの画像デハージングモジュールからなるドメイン適応パラダイムを提案する。
実世界の合成画像と実世界の画像の両方で実験結果から,我々のモデルは最先端の脱ハージングアルゴリズムに対して好適に機能することが示された。
論文 参考訳(メタデータ) (2020-05-10T13:54:56Z) - TuiGAN: Learning Versatile Image-to-Image Translation with Two Unpaired
Images [102.4003329297039]
教師なし画像画像変換(UI2I)タスクは、ペア画像のない2つのドメイン間のマッピングを学習する。
本研究では,2つの未ペア画像のみをトレーニングし,ワンショットで教師なし学習を行う生成モデルTuiGANを提案する。
論文 参考訳(メタデータ) (2020-04-09T16:23:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。