論文の概要: High-Resolution Daytime Translation Without Domain Labels
- arxiv url: http://arxiv.org/abs/2003.08791v2
- Date: Mon, 23 Mar 2020 11:59:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 04:06:56.778046
- Title: High-Resolution Daytime Translation Without Domain Labels
- Title(参考訳): ドメインラベルのない高分解能日時翻訳
- Authors: Ivan Anokhin, Pavel Solovev, Denis Korzhenkov, Alexey Kharlamov, Taras
Khakhulin, Alexey Silvestrov, Sergey Nikolenko, Victor Lempitsky, Gleb
Sterkin
- Abstract要約: HiDTは、画像から画像への生成モデルと、高解像度で画像翻訳を適用可能な新しいアップサンプリングスキームを組み合わせる。
このモデルは、一般的に使用されるGANメトリクスと人的評価の両方の観点から、競争結果を示す。
- 参考スコア(独自算出の注目度): 9.345665898456302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modeling daytime changes in high resolution photographs, e.g., re-rendering
the same scene under different illuminations typical for day, night, or dawn,
is a challenging image manipulation task. We present the high-resolution
daytime translation (HiDT) model for this task. HiDT combines a generative
image-to-image model and a new upsampling scheme that allows to apply image
translation at high resolution. The model demonstrates competitive results in
terms of both commonly used GAN metrics and human evaluation. Importantly, this
good performance comes as a result of training on a dataset of still landscape
images with no daytime labels available. Our results are available at
https://saic-mdal.github.io/HiDT/.
- Abstract(参考訳): 例えば、昼、夜、夜明けに典型的な異なる照度の下で同じシーンを再レンダリングするといった、高解像度写真の昼間変化のモデル化は、難しい画像操作タスクです。
本稿では,高分解能日時翻訳(HiDT)モデルを提案する。
HiDTは、画像間の生成モデルと、高解像度で画像翻訳を適用可能な新しいアップサンプリングスキームを組み合わせる。
このモデルは、一般的に使用されるGANメトリクスと人的評価の両方の観点から、競争結果を示す。
重要なことに、この優れたパフォーマンスは、日中ラベルのない静止した風景画像のデータセットをトレーニングした結果である。
結果はhttps://saic-mdal.github.io/hidt/で入手できます。
関連論文リスト
- DataDream: Few-shot Guided Dataset Generation [90.09164461462365]
実データ分布をより忠実に表現する分類データセットを合成するためのフレームワークを提案する。
DataDream fine-tunes LoRA weights for the image generation model on the few real image before generated the training data using the adapt model。
次に、合成データを用いてCLIPのLoRA重みを微調整し、様々なデータセットに対する以前のアプローチよりも下流画像の分類を改善する。
論文 参考訳(メタデータ) (2024-07-15T17:10:31Z) - Aligning Modalities in Vision Large Language Models via Preference
Fine-tuning [67.62925151837675]
本研究では,幻覚の問題をアライメント問題とみなし,好みのチューニングで対処する。
具体的には,AIモデルを用いたフィードバックデータを生成するPOVIDを提案する。
提案手法は,好ましくないデータを生成するための2段階のアプローチである。
広範ベンチマークを用いた実験では、幻覚を減らすだけでなく、標準ベンチマークでのモデル性能を向上させることができ、従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-02-18T00:56:16Z) - Dark Side Augmentation: Generating Diverse Night Examples for Metric Learning [0.3840425533789961]
我々は、GANベースの合成画像生成装置を訓練し、利用可能な日中の画像例を夜間画像に変換する。
提案手法は,標準の東京24時間7日の検索ベンチマークにおいて,最先端の結果よりも改善されている。
これは、昼と夜の画像に一致する画像のペアを訓練する必要がない。
論文 参考訳(メタデータ) (2023-09-28T11:20:24Z) - Similarity Min-Max: Zero-Shot Day-Night Domain Adaptation [52.923298434948606]
低照度条件は人間の視覚経験を妨げるだけでなく、下流の視覚タスクにおけるモデルの性能を低下させる。
この論文は、境界適用性、すなわちゼロショットの昼夜ドメイン適応に関するより複雑なシナリオに挑戦する。
我々は、それらを統一された枠組みで考える類似性 min-max パラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-17T18:50:15Z) - Evaluating Data Attribution for Text-to-Image Models [62.844382063780365]
我々は,既存の大規模モデルを与えられた模範オブジェクトやスタイルにチューニングする「カストミゼーション」手法による属性評価を行う。
私たちのキーとなる洞察は、これによって、構築によって模範にコンピュータ的に影響される合成画像を効率的に作成できるということです。
問題の本質的な不確実性を考慮することで、一連のトレーニング画像に対してソフトな属性スコアを割り当てることができる。
論文 参考訳(メタデータ) (2023-06-15T17:59:51Z) - Towards Pragmatic Semantic Image Synthesis for Urban Scenes [4.36080478413575]
合成画像とラベル付きデータセットとラベルなしの実画像付きデータセットが与えられた場合、入力マスクの内容と実際の画像の外観で画像を生成することができるモデルを学ぶことが目的である。
合成画像は, パッチレベルでの高次特徴の違いをペナルティ化することにより, 生成画像の内容のガイドとして活用する。
対象領域のセマンティックな分布に過度に適合する1つの識別器を用いた以前の研究とは対照的に、画像全体の識別器と画像パッチ上のマルチスケール識別器を用いる。
論文 参考訳(メタデータ) (2023-05-16T18:01:12Z) - BigDatasetGAN: Synthesizing ImageNet with Pixel-wise Annotations [89.42397034542189]
我々は,GAN(Generative Adversarial Network)を介して,大規模ラベル付きデータセットを合成する。
我々は、ImageNetで訓練されたクラス条件生成モデルBigGANの画像サンプルを、すべての1kクラスに対して、クラス毎の5つのイメージを手動でアノテートする。
我々は、追加の8k実画像のセットをラベル付けして、新しいImageNetベンチマークを作成し、様々な設定でセグメンテーション性能を評価する。
論文 参考訳(メタデータ) (2022-01-12T20:28:34Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - DANNet: A One-Stage Domain Adaptation Network for Unsupervised Nighttime
Semantic Segmentation [18.43890050736093]
夜間セマンティックセグメンテーションのための新しいドメイン適応ネットワーク(DANNet)を提案する。
ラベル付きデイタイムデータセットとラベルなしデータセットを備えた敵対的なトレーニングを採用している。
本手法は,夜間セマンティックセグメンテーションにおける最新性能を実現する。
論文 参考訳(メタデータ) (2021-04-22T02:49:28Z) - toon2real: Translating Cartoon Images to Realistic Images [1.4419517737536707]
このタスクを実行するためにいくつかの最先端モデルを適用するが、高品質な翻訳には失敗する。
本稿では,漫画領域からフォトリアリスティック領域への画像変換のためのCycleGANモデルに基づく手法を提案する。
実験の結果を実証し,提案手法が他の最先端技術であるUNITと比較して最も低いFrechet Inception Distanceスコアと優れた結果を得たことを示す。
論文 参考訳(メタデータ) (2021-02-01T20:22:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。