論文の概要: DeepCFL: Deep Contextual Features Learning from a Single Image
- arxiv url: http://arxiv.org/abs/2011.03712v1
- Date: Sat, 7 Nov 2020 06:54:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 22:32:50.162834
- Title: DeepCFL: Deep Contextual Features Learning from a Single Image
- Title(参考訳): deepcfl: 単一のイメージから学習する深いコンテキスト機能
- Authors: Indra Deep Mastan and Shanmuganathan Raman
- Abstract要約: 我々はDeep Contextual Features Learning (DeepCFL)と呼ばれる新しいトレーニングデータ非依存フレームワークを提案する。
DeepCFLは、入力画像からコンテキストベクトルの分布を学習する単一の画像GANフレームワークである。
本研究では,無作為に除去された画素のアウトペイント,インペイント,復元など,様々な難解なシナリオにおいて,文脈学習のパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 30.610806956509336
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, there is a vast interest in developing image feature learning
methods that are independent of the training data, such as deep image prior,
InGAN, SinGAN, and DCIL. These methods are unsupervised and are used to perform
low-level vision tasks such as image restoration, image editing, and image
synthesis. In this work, we proposed a new training data-independent framework,
called Deep Contextual Features Learning (DeepCFL), to perform image synthesis
and image restoration based on the semantics of the input image. The contextual
features are simply the high dimensional vectors representing the semantics of
the given image. DeepCFL is a single image GAN framework that learns the
distribution of the context vectors from the input image. We show the
performance of contextual learning in various challenging scenarios:
outpainting, inpainting, and restoration of randomly removed pixels. DeepCFL is
applicable when the input source image and the generated target image are not
aligned. We illustrate image synthesis using DeepCFL for the task of image
resizing.
- Abstract(参考訳): 近年,Deep Image Prior, InGAN, SinGAN, DCILなどのトレーニングデータに依存しない画像特徴学習手法の開発が注目されている。
これらの手法は教師なしで、画像復元、画像編集、画像合成などの低レベルの視覚タスクに使用される。
本研究では,入力画像のセマンティクスに基づいて画像合成と画像復元を行うための,deep context features learning(deepcfl)と呼ばれる新しい学習用データ独立フレームワークを提案する。
文脈的特徴は単に与えられた画像の意味を表す高次元ベクトルである。
DeepCFLは、入力画像からコンテキストベクトルの分布を学習する単一の画像GANフレームワークである。
本研究では,ランダムに除去された画素のアウトペイント,インペインティング,復元など,さまざまな難易度シナリオにおける文脈学習の性能を示す。
DeepCFLは、入力元画像と生成されたターゲット画像とが一致していない場合に適用される。
画像再構成のためのDeepCFLを用いた画像合成について説明する。
関連論文リスト
- CricaVPR: Cross-image Correlation-aware Representation Learning for Visual Place Recognition [73.51329037954866]
視覚的位置認識のための画像間相関認識を用いたロバストなグローバル表現手法を提案する。
本手法では,バッチ内の複数の画像の相関にアテンション機構を用いる。
本手法は,訓練時間を大幅に短縮し,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-29T15:05:11Z) - Coarse-to-Fine Latent Diffusion for Pose-Guided Person Image Synthesis [65.7968515029306]
PGPIS(Pose-Guided Person Image Synthesis)のためのCFLD(Coarse-to-Fine Latent Diffusion)法を提案する。
認識修正デコーダは、学習可能なクエリの集合を段階的に洗練し、粗いプロンプトとして人物画像の意味的理解を抽出するように設計されている。
論文 参考訳(メタデータ) (2024-02-28T06:07:07Z) - Towards Semantic Communications: Deep Learning-Based Image Semantic
Coding [42.453963827153856]
我々は,よりセマンティクスや帯域幅に敏感な画像データに対するセマンティクス通信を考案した。
画素レベルを超えて画像を符号化する強化学習に基づく適応意味符号化(RL-ASC)手法を提案する。
実験の結果,提案したRL-ASCはノイズ耐性があり,視覚的に快適でセマンティックな一貫した画像の再構成が可能であった。
論文 参考訳(メタデータ) (2022-08-08T12:29:55Z) - CRIS: CLIP-Driven Referring Image Segmentation [71.56466057776086]
エンドツーエンドのCLIP駆動参照画像フレームワーク(CRIS)を提案する。
CRISは、テキストとピクセルのアライメントを達成するために、視覚言語によるデコーディングとコントラスト学習に頼っている。
提案するフレームワークは, 後処理を伴わずに, 最先端の性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-11-30T07:29:08Z) - UFO: A UniFied TransfOrmer for Vision-Language Representation Learning [54.82482779792115]
視覚言語(VL)表現学習において、単文入力(画像や言語など)または多モーダル入力(画像と質問の連結など)を処理できる単一のUniFied TransfOrmer(UFO)を提案する。
既存のアプローチは、通常、各モダリティのための個別のネットワークを設計し、マルチモーダルタスクのための特定の融合ネットワークを設計する。
論文 参考訳(メタデータ) (2021-11-19T03:23:10Z) - SAPNet: Segmentation-Aware Progressive Network for Perceptual
Contrastive Deraining [2.615176171489612]
単一画像のデライニングのためのコントラスト学習に基づくセグメンテーション・アウェア・プログレッシブ・ネットワーク(SAPNet)を提案する。
本モデルでは,オブジェクト検出とセマンティックセマンティックセグメンテーションを高い精度で支援する。
論文 参考訳(メタデータ) (2021-11-17T03:57:11Z) - USIS: Unsupervised Semantic Image Synthesis [9.613134538472801]
セマンティック画像合成(USIS)のための新しい教師なしパラダイムを提案する。
USISは、自己教師付きセグメンテーションロスを使用して、視覚的に分離可能なセグメンテーションクラスで画像を出力することを学ぶ。
実画像の色とテクスチャの分布を高周波数情報を失うことなく一致させるため,ウェーブレットを用いた識別手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T20:48:41Z) - Image Restoration by Deep Projected GSURE [115.57142046076164]
Ill-posed inverse problem は、デブロアリングや超解像など、多くの画像処理アプリケーションに現れる。
本稿では,一般化されたSteinUnbiased Risk Estimator(GSURE)の「投影変換」とCNNによる潜在画像のパラメータ化を含む損失関数の最小化に基づく,新たな画像復元フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-04T08:52:46Z) - Scene Text Synthesis for Efficient and Effective Deep Network Training [62.631176120557136]
我々は,背景画像に前景オブジェクトを埋め込むことで,注釈付き訓練画像を構成する革新的な画像合成技術を開発した。
提案手法は,ディープネットワークトレーニングにおける合成画像の有用性を高める2つの重要な要素から構成される。
複数の公開データセットに対する実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2019-01-26T10:15:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。