論文の概要: Image-to-image Translation as a Unique Source of Knowledge
- arxiv url: http://arxiv.org/abs/2112.01873v1
- Date: Fri, 3 Dec 2021 12:12:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-06 14:17:58.302268
- Title: Image-to-image Translation as a Unique Source of Knowledge
- Title(参考訳): ユニークな知識源としての画像間翻訳
- Authors: Alejandro D. Mousist
- Abstract要約: 本稿では,光学領域からSAR領域へのラベル付きデータセットの変換を行う。
積み重ねは、異なるI2I翻訳から学んだ知識を組み合わせる方法として提案され、単一のモデルに対して評価される。
- 参考スコア(独自算出の注目度): 91.3755431537592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image-to-image (I2I) translation is an established way of translating data
from one domain to another but the usability of the translated images in the
target domain when working with such dissimilar domains as the SAR/optical
satellite imagery ones and how much of the origin domain is translated to the
target domain is still not clear enough. This article address this by
performing translations of labelled datasets from the optical domain to the SAR
domain with different I2I algorithms from the state-of-the-art, learning from
transferred features in the destination domain and evaluating later how much
from the original dataset was transferred. Added to this, stacking is proposed
as a way of combining the knowledge learned from the different I2I translations
and evaluated against single models.
- Abstract(参考訳): 画像から画像への変換(i2i)は、ある領域から別の領域へデータを翻訳する確立された方法であるが、sar/光学衛星画像などの類似した領域を扱う場合、対象領域内の翻訳画像の使い勝手や、原産地ドメインのどの程度が対象領域に翻訳されるかはまだ明確ではない。
本稿は、光学領域からSAR領域へのラベル付きデータセットの変換を、最先端から異なるI2Iアルゴリズムで実行し、目的地領域の転送特徴から学習し、後から元のデータセットの転送量を評価することで、この問題に対処する。
これに加えて、スタックは異なるi2i翻訳から学んだ知識を結合し、単一モデルに対して評価する方法として提案されている。
関連論文リスト
- Domain-Scalable Unpaired Image Translation via Latent Space Anchoring [88.7642967393508]
Unpaired Image-to-image Translation (UNIT)は、2つの視覚領域間の画像をペアのトレーニングデータなしでマッピングすることを目的としている。
そこで本研究では、潜在空間アンカーと呼ばれる新しい領域スケーリング可能なUNIT手法を提案する。
本手法は, 軽量エンコーダと回帰器モデルを学習することにより, 異なる領域の画像を, 凍ったGANと同じ潜伏空間に固定する。
推論フェーズでは、異なるドメインの学習エンコーダとデコーダを任意に組み合わせて、微調整なしで任意の2つのドメイン間で画像を変換することができる。
論文 参考訳(メタデータ) (2023-06-26T17:50:02Z) - Domain Agnostic Image-to-image Translation using Low-Resolution
Conditioning [6.470760375991825]
ドメインが関係するきめ細かい問題に対して,ドメインに依存しないi2i法を提案する。
本稿では、生成モデルを訓練し、関連するソース画像の固有情報を共有する画像を生成する新しいアプローチを提案する。
CelebA-HQ と AFHQ のデータセット上で,視覚的品質の向上を実証し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-08T19:58:49Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - Disentangled Unsupervised Image Translation via Restricted Information
Flow [61.44666983942965]
多くの最先端のメソッドは、所望の共有vs固有の分割をアーキテクチャにハードコードする。
帰納的アーキテクチャバイアスに依存しない新しい手法を提案する。
提案手法は,2つの合成データセットと1つの自然なデータセットに対して一貫した高い操作精度を実現する。
論文 参考訳(メタデータ) (2021-11-26T00:27:54Z) - Semantic Consistency in Image-to-Image Translation for Unsupervised
Domain Adaptation [22.269565708490465]
Unsupervised Domain Adaptation (UDA)は、ソースドメインでトレーニングされたモデルを、ラベル付きデータが使用できない新しいターゲットドメインに適応させることを目的としている。
UDAの整合性正規化手法と組み合わせて意味論的に一貫した画像から画像への変換法を提案する。
論文 参考訳(メタデータ) (2021-11-05T14:22:20Z) - Learning Unsupervised Cross-domain Image-to-Image Translation Using a
Shared Discriminator [2.1377923666134118]
教師なし画像画像変換は、ソースドメインから画像を変換して、ソースターゲット画像ペアを使用することなく、ターゲットドメインで画像を生成するために使用される。
本稿では,2つのGAN間の1つの共有判別器を用いた新しい手法を提案する。
提案手法は,注意機構を付加せずにも,注意に基づく手法と同等に動作し,同等の画質の画像を生成できることが示唆された。
論文 参考訳(メタデータ) (2021-02-09T08:26:23Z) - Deep Symmetric Adaptation Network for Cross-modality Medical Image
Segmentation [40.95845629932874]
監視されていないドメイン適応(UDA)手法は、クロスモダリティ医療イメージセグメンテーションタスクで有望なパフォーマンスを示しています。
医療用画像セグメンテーションのためのUDAの新しいディープシンメトリーアーキテクチャを提案する。セグメンテーションサブネットワークと2つのシンメトリーソースとターゲットドメイン翻訳サブネットワークからなる。
本手法は,Cardiac と BraTS のセグメンテーションタスクにおける最先端手法と比較して,顕著な利点がある。
論文 参考訳(メタデータ) (2021-01-18T02:54:30Z) - Continuous and Diverse Image-to-Image Translation via Signed Attribute
Vectors [120.13149176992896]
本稿では,様々な領域にまたがる多様な写像経路の連続的な変換を可能にする,効果的に署名された属性ベクトルを提案する。
連続翻訳結果の視覚的品質を高めるため、2つの符号対称属性ベクトル間の軌跡を生成する。
論文 参考訳(メタデータ) (2020-11-02T18:59:03Z) - Unsupervised Image-to-Image Translation via Pre-trained StyleGAN2
Network [73.5062435623908]
本稿では,一連のモデル変換によって対象領域に新たなモデルを生成する新しいI2I翻訳手法を提案する。
潜在ベクトルを生成されたモデルに入力することで、ソースドメインとターゲットドメインの間でI2I翻訳を行うことができる。
論文 参考訳(メタデータ) (2020-10-12T13:51:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。