論文の概要: Infusing Definiteness into Randomness: Rethinking Composition Styles for
Deep Image Matting
- arxiv url: http://arxiv.org/abs/2212.13517v1
- Date: Tue, 27 Dec 2022 15:24:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 15:28:21.209951
- Title: Infusing Definiteness into Randomness: Rethinking Composition Styles for
Deep Image Matting
- Title(参考訳): ランダム性への定性注入:深部画像マッチングのための構成スタイルの再考
- Authors: Zixuan Ye, Yutong Dai, Chaoyi Hong, Zhiguo Cao, Hao Lu
- Abstract要約: 深層画像マッチングにおける構成様式について検討する。
先行技術は、この流れを全くランダムに実行する。
本稿では, 原点を結合し, 前景を定三重奏で結合する新しい構成法を提案する。
- 参考スコア(独自算出の注目度): 24.488936808356915
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the composition style in deep image matting, a notion that
characterizes a data generation flow on how to exploit limited foregrounds and
random backgrounds to form a training dataset. Prior art executes this flow in
a completely random manner by simply going through the foreground pool or by
optionally combining two foregrounds before foreground-background composition.
In this work, we first show that naive foreground combination can be
problematic and therefore derive an alternative formulation to reasonably
combine foregrounds. Our second contribution is an observation that matting
performance can benefit from a certain occurrence frequency of combined
foregrounds and their associated source foregrounds during training. Inspired
by this, we introduce a novel composition style that binds the source and
combined foregrounds in a definite triplet. In addition, we also find that
different orders of foreground combination lead to different foreground
patterns, which further inspires a quadruplet-based composition style. Results
under controlled experiments on four matting baselines show that our
composition styles outperform existing ones and invite consistent performance
improvement on both composited and real-world datasets. Code is available at:
https://github.com/coconuthust/composition_styles
- Abstract(参考訳): 本研究では,限られたフォアグラウンドとランダムな背景を活用してトレーニングデータセットを形成するデータ生成フローを特徴付けるdeep image mattingの合成スタイルについて検討する。
先行技術は、単に前景プールを通過したり、2つの前景を前景合成の前に任意に組み合わせることで、この流れを全くランダムに実行する。
本研究は,まず,有意な前景の組み合わせが問題になりうることを示し,従って,前景を合理的に組み合わせるための別の定式化を導出する。
第2の貢献は、マッティングパフォーマンスがトレーニング中に前景とそれに関連する元前景の特定の発生頻度の恩恵を受ける、という観察です。
これに触発されて、我々はソースを結合し、前景を定三重奏で結合する新しい構成スタイルを導入する。
さらに,前景の組み合わせの異なる順序が異なる前景パターンにつながり,さらにクワッドラプレットベースの作曲スタイルに拍車をかけることも見いだした。
4つのマッティングベースラインにおける制御実験の結果、我々のコンポジションスタイルは既存のコンポジションよりも優れており、複合データと実世界のデータセットの両方で一貫したパフォーマンス改善が期待できることがわかった。
コードは、https://github.com/coconuthust/composition_stylesで入手できる。
関連論文リスト
- Handbook on Leveraging Lines for Two-View Relative Pose Estimation [82.72686460985297]
本稿では,画像ペア間の相対的なポーズを,点,線,およびそれらの一致をハイブリッド方式で共同で推定する手法を提案する。
我々のハイブリッドフレームワークは、すべての構成の利点を組み合わせて、挑戦的な環境で堅牢で正確な見積もりを可能にします。
論文 参考訳(メタデータ) (2023-09-27T21:43:04Z) - ControlCom: Controllable Image Composition using Diffusion Model [45.48263800282992]
1つの拡散モデルにおいて4つのタスクを統一する制御可能な画像合成法を提案する。
また,拡散モデルにおける前景の詳細を強化するために,局所的な拡張モジュールを提案する。
提案手法は,公開ベンチマークと実世界のデータの両方を用いて評価する。
論文 参考訳(メタデータ) (2023-08-19T14:56:44Z) - Learnable Pillar-based Re-ranking for Image-Text Retrieval [119.9979224297237]
画像テキスト検索は、モダリティギャップを埋め、意味的類似性に基づいてモダリティコンテンツを検索することを目的としている。
一般的なポストプロセッシング手法であるリグレードは, 単一モダリティ検索タスクにおいて, 隣り合う関係を捕捉する優位性を明らかにしている。
本稿では,画像テキスト検索のための新しい学習可能な柱型リグレードパラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-25T04:33:27Z) - SceneComposer: Any-Level Semantic Image Synthesis [80.55876413285587]
任意の精度のセマンティックレイアウトから条件付き画像合成のための新しいフレームワークを提案する。
このフレームワークは、形状情報のない最低レベルのテキスト・トゥ・イメージ(T2I)に自然に還元され、最高レベルのセグメンテーション・トゥ・イメージ(S2I)となる。
本稿では,この新たなセットアップの課題に対処する,新しいテクニックをいくつか紹介する。
論文 参考訳(メタデータ) (2022-11-21T18:59:05Z) - SCS-Co: Self-Consistent Style Contrastive Learning for Image
Harmonization [29.600429707123645]
画像調和のための自己整合型コントラスト学習方式(SCS-Co)を提案する。
複数の負のサンプルを動的に生成することにより、SCS-Coはより歪みの少ない知識を学習し、生成した調和像を適切に正規化することができる。
さらに,注目度の高い背景特徴分布を実現するために,背景アテンショナル適応型インスタンス正規化(BAIN)を提案する。
論文 参考訳(メタデータ) (2022-04-29T09:22:01Z) - Content-aware Warping for View Synthesis [110.54435867693203]
本稿では,比較的大きな近傍の画素の重みを,軽量ニューラルネットワークによる文脈情報から適応的に学習するコンテンツ認識ワープを提案する。
この学習可能なワープモジュールに基づいて、2つのソースビューから新しいビューを合成するエンド・ツー・エンドの学習ベースのフレームワークを提案する。
広いベースラインと非構造的多視点データセットを有する構造的光フィールドデータセットの実験結果から,提案手法は,定量的かつ視覚的に,最先端の手法を著しく上回ることを示した。
論文 参考訳(メタデータ) (2022-01-22T11:35:05Z) - SSH: A Self-Supervised Framework for Image Harmonization [97.16345684998788]
我々は、編集せずに「自由」な自然画像だけで訓練できる新しい自己改善調和フレームワーク(SSH)を提案する。
提案したSSHは,基準指標,視覚的品質,主観的ユーザスタディにおいて,従来の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2021-08-15T19:51:33Z) - FBC-GAN: Diverse and Flexible Image Synthesis via Foreground-Background
Composition [36.40115199923389]
本稿では,FBC-GAN(フォアグラウンド・バックグラウンド・コンポジション・ガン)という,フォアグラウンド・バックグラウンド・コンポジション・ガン(FBC-GAN)を同時かつ独立に生成する手法を提案する。
この明示的な設計により、FBC-GANは、相互にコンテンツに依存しない前景と背景を持つ画像を生成することができる。
また、異なる背景シーンを持つ同じ前景オブジェクト、異なる前景オブジェクトを持つ同じ背景シーン、異なる対象位置、サイズ、ポーズを持つ同じ前景オブジェクトと背景シーンを可能にすることで、優れた柔軟性を提供する。
論文 参考訳(メタデータ) (2021-07-07T11:49:14Z) - BachGAN: High-Resolution Image Synthesis from Salient Object Layout [78.51640906030244]
本稿では、より実用的な画像生成のための新しい課題である、有能なオブジェクトレイアウトからの高品質な画像合成を提案する。
i) セグメンテーションマップ入力なしできめ細かい詳細と現実的なテクスチャを生成する方法、(ii) バックグラウンドを作成してスタンドアロンのオブジェクトにシームレスに織り込む方法である。
幻影背景表現を動的に生成することにより,高解像度画像をフォトリアリスティック・フォアグラウンドと積分背景の両方で合成することができる。
論文 参考訳(メタデータ) (2020-03-26T00:54:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。