論文の概要: Few-Shot Unsupervised Image-to-Image Translation on complex scenes
- arxiv url: http://arxiv.org/abs/2106.03770v1
- Date: Mon, 7 Jun 2021 16:33:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 18:27:39.328535
- Title: Few-Shot Unsupervised Image-to-Image Translation on complex scenes
- Title(参考訳): 複雑なシーンの教師なし画像翻訳
- Authors: Luca Barras, Samuel Chassot, Daniel Filipe Nunes Silva
- Abstract要約: 本研究では,1つのオブジェクトの翻訳のために開発された手法が,より多彩でコンテンツに富んだ画像に対してどのように機能するかを評価する。
本稿では,オブジェクト検出に基づくデータセットの拡張手法を提案する。さらに,オブジェクト検出のパワーを活用するために,FUNITフレームワークを適用する方法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Unsupervised image-to-image translation methods have received a lot of
attention in the last few years. Multiple techniques emerged tackling the
initial challenge from different perspectives. Some focus on learning as much
as possible from several target style images for translations while other make
use of object detection in order to produce more realistic results on
content-rich scenes. In this work, we assess how a method that has initially
been developed for single object translation performs on more diverse and
content-rich images. Our work is based on the FUNIT[1] framework and we train
it with a more diverse dataset. This helps understanding how such method
behaves beyond their initial frame of application. We present a way to extend a
dataset based on object detection. Moreover, we propose a way to adapt the
FUNIT framework in order to leverage the power of object detection that one can
see in other methods.
- Abstract(参考訳): 教師なし画像間翻訳法はここ数年,注目されている。
さまざまな視点から最初の課題に取り組む複数のテクニックが現れました。
翻訳のための複数のターゲットスタイルの画像から可能な限り学習することに注力する者もいれば、コンテンツに富んだシーンでより現実的な結果を生み出すためにオブジェクト検出を利用する者もいる。
本研究では,より多様でコンテンツに富んだ画像に対して,単一オブジェクト翻訳のために最初に開発された手法がどのように動作するかを評価する。
我々の仕事はfunit[1]フレームワークに基づいており、より多様なデータセットでトレーニングしています。
これは、そのようなメソッドがアプリケーションの最初のフレームを超えてどのように振る舞うかを理解するのに役立つ。
オブジェクト検出に基づいてデータセットを拡張する方法を提案する。
さらに,他の手法で見られる物体検出のパワーを活用するために,funitフレームワークを適用する方法を提案する。
関連論文リスト
- SCONE-GAN: Semantic Contrastive learning-based Generative Adversarial
Network for an end-to-end image translation [18.93434486338439]
SCONE-GANはリアルで多様な風景画像を生成する学習に有効であることが示されている。
より現実的で多様な画像生成のために、スタイル参照画像を導入します。
画像から画像への変換と屋外画像のスタイリングのための提案アルゴリズムを検証した。
論文 参考訳(メタデータ) (2023-11-07T10:29:16Z) - DALL-E for Detection: Language-driven Context Image Synthesis for Object
Detection [18.276823176045525]
本稿では,大規模なコンテキスト画像の自動生成のための新しいパラダイムを提案する。
我々のアプローチの核心は、文脈の言語記述と言語駆動画像生成の相互作用を利用することである。
本研究では,4つのオブジェクト検出データセットに対する事前の文脈画像生成手法に対するアプローチの利点を実証する。
論文 参考訳(メタデータ) (2022-06-20T06:43:17Z) - Coarse-to-Fine Vision-Language Pre-training with Fusion in the Backbone [170.85076677740292]
本稿では、視覚言語(VL)事前学習のための新しいモデルアーキテクチャであるFIBER(Fusion-In-the-Backbone-basedER)を提案する。
ユニモーダルバックボーンの後に、専用のトランスフォーマー層を融合させる代わりに、FIBERはマルチモーダルフュージョンをモデルに深く押し込む。
我々は、VQA、画像キャプション、検索、フレーズグラウンド、参照表現理解、オブジェクト検出など、幅広いVLタスクに関する包括的な実験を行う。
論文 参考訳(メタデータ) (2022-06-15T16:41:29Z) - Unsupervised Image-to-Image Translation with Generative Prior [103.54337984566877]
教師なし画像画像変換は、ペアデータなしで2つの視覚領域間の翻訳を学習することを目的としている。
本稿では,GP-UNIT(Generative Prior-guided UN Image-to-image Translation)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-07T17:59:23Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - Panoptic-based Object Style-Align for Image-to-Image Translation [2.226472061870956]
本稿では,画像から画像への変換を行うために,パノプティクスに基づくオブジェクトスタイル適応生成ネットワーク(POSA-GAN)を提案する。
提案手法は,異なる競合手法と体系的に比較し,画像の画質とオブジェクト認識性能に大きな改善を加えた。
論文 参考訳(メタデータ) (2021-12-03T14:28:11Z) - A Simple and Effective Use of Object-Centric Images for Long-Tailed
Object Detection [56.82077636126353]
シーン中心画像における物体検出を改善するために,物体中心画像を活用する。
私たちは、シンプルで驚くほど効果的なフレームワークを提示します。
我々の手法は、レアオブジェクトのオブジェクト検出(およびインスタンスセグメンテーション)の精度を相対的に50%(および33%)向上させることができる。
論文 参考訳(メタデータ) (2021-02-17T17:27:21Z) - Image Translation via Fine-grained Knowledge Transfer [36.898373109689814]
本稿では,知識検索と伝達による画像翻訳を実現する,解釈可能な知識ベース画像翻訳フレームワークを提案する。
詳細は、プラグインアンドプレイとモデルに依存しない汎用知識ライブラリを構築し、タスク固有のスタイル、トーン、テクスチャパターンなどを覚えている。
論文 参考訳(メタデータ) (2020-12-21T09:18:48Z) - Contrastive Learning for Unpaired Image-to-Image Translation [64.47477071705866]
画像から画像への変換では、出力の各パッチは、入力中の対応するパッチの内容を、ドメインに依存しない形で反映すべきである。
本研究では,両者の相互情報を最大化するために,コントラスト学習に基づく枠組みを提案する。
筆者らのフレームワークは、画質の向上とトレーニング時間の短縮を図りながら、画像から画像への翻訳設定の一方的な翻訳を可能にすることを実証している。
論文 参考訳(メタデータ) (2020-07-30T17:59:58Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。