論文の概要: Guided Fine-Tuning for Large-Scale Material Transfer
- arxiv url: http://arxiv.org/abs/2007.03059v2
- Date: Wed, 8 Jul 2020 17:12:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 03:12:57.511923
- Title: Guided Fine-Tuning for Large-Scale Material Transfer
- Title(参考訳): 大規模物質移動のためのガイドファインチューニング
- Authors: Valentin Deschaintre, George Drettakis and Adrien Bousseau
- Abstract要約: 本稿では, SVBRDFの外観を類似材料を表す対象画像に転送する手法を提案する。
私たちのソリューションは非常にシンプルで、提供された例の深い外観キャプチャーネットワークを微調整します。
この単純なアプローチの強みを示す2つの新しい材料キャプチャーとデザインを導入する。
- 参考スコア(独自算出の注目度): 12.181579819978909
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a method to transfer the appearance of one or a few exemplar
SVBRDFs to a target image representing similar materials. Our solution is
extremely simple: we fine-tune a deep appearance-capture network on the
provided exemplars, such that it learns to extract similar SVBRDF values from
the target image. We introduce two novel material capture and design workflows
that demonstrate the strength of this simple approach. Our first workflow
allows to produce plausible SVBRDFs of large-scale objects from only a few
pictures. Specifically, users only need take a single picture of a large
surface and a few close-up flash pictures of some of its details. We use
existing methods to extract SVBRDF parameters from the close-ups, and our
method to transfer these parameters to the entire surface, enabling the
lightweight capture of surfaces several meters wide such as murals, floors and
furniture. In our second workflow, we provide a powerful way for users to
create large SVBRDFs from internet pictures by transferring the appearance of
existing, pre-designed SVBRDFs. By selecting different exemplars, users can
control the materials assigned to the target image, greatly enhancing the
creative possibilities offered by deep appearance capture.
- Abstract(参考訳): 本稿では, SVBRDFの外観を類似材料を表す対象画像に転送する手法を提案する。
提案手法は,対象画像からSVBRDF値と類似したSVBRDF値の抽出を学習できるように,提供した例の深い外観キャプチャネットワークを微調整する。
このシンプルなアプローチの強みを示す2つの新しい材料キャプチャーと設計ワークフローを導入する。
最初のワークフローでは、少数の画像から大規模オブジェクトの可塑性SVBRDFを生成することができる。
具体的には、ユーザーは大きな表面の1枚の写真と、その詳細の一部のクローズアップフラッシュ写真だけを撮る必要がある。
本手法では, 壁面や床, 家具など, 数メートルの幅の広い表面を軽量に捕捉し, 壁面からSVBRDFパラメータを抽出する手法と, これらのパラメータを表面全体に伝達する手法を用いている。
第2のワークフローでは、ユーザが既存のSVBRDFの外観を移譲することで、インターネット画像から大きなSVBRDFを作成する強力な方法を提供する。
異なる例を選択すれば、ユーザはターゲット画像に割り当てられた素材を制御でき、深い外観キャプチャによる創造可能性を大幅に向上することができる。
関連論文リスト
- VIP: Versatile Image Outpainting Empowered by Multimodal Large Language Model [28.345828491336874]
本研究は,ユーザの要求に応じて結果のカスタマイズが可能な,新たな画像出力フレームワークを提案する。
画像のマスキング部分とマスキング部分のテキスト記述を自動的に抽出し整理するマルチモーダル大言語モデル(MLLM)を利用する。
さらに、画像の特定の空間領域とテキストプロンプトの対応する部分との相互作用を強化するために、特別にCentral-Total-Surrounding (CTS) と呼ばれるCentral-Attentionモジュールが精巧に設計されている。
論文 参考訳(メタデータ) (2024-06-03T07:14:19Z) - MULAN: A Multi Layer Annotated Dataset for Controllable Text-to-Image Generation [54.64194935409982]
44K MUlti-Layer-wise RGBA 分解からなる新しいデータセット MuLAn を紹介する。
MuLAnは、高品質な画像のインスタンス分解と空間情報を提供する最初のフォトリアリスティックなリソースである。
我々は,新しい生成・編集技術,特にレイヤワイドソリューションの開発を促進することを目的としている。
論文 参考訳(メタデータ) (2024-04-03T14:58:00Z) - PROMPT-IML: Image Manipulation Localization with Pre-trained Foundation
Models Through Prompt Tuning [35.39822183728463]
本稿では,改ざん画像を検出するための新しいPrompt-IMLフレームワークを提案する。
人間は、意味情報と高周波情報に基づいて、画像の真偽を識別する傾向がある。
我々のモデルは8つの典型的なフェイク画像データセットでより良い性能を得ることができる。
論文 参考訳(メタデータ) (2024-01-01T03:45:07Z) - Break-A-Scene: Extracting Multiple Concepts from a Single Image [80.47666266017207]
テキストシーン分解の課題を紹介する。
本稿では,対象概念の存在を示すマスクを用いた入力画像の拡張を提案する。
次に、新しい2段階のカスタマイズプロセスを示す。
論文 参考訳(メタデータ) (2023-05-25T17:59:04Z) - Versatile Diffusion: Text, Images and Variations All in One Diffusion
Model [76.89932822375208]
Versatile Diffusionは、テキスト・ツー・イメージ、画像・ツー・テキスト、バリエーションの複数のフローを1つの統一モデルで処理する。
私たちのコードとモデルはhttps://github.com/SHI-Labs/Versatile-Diffusion.comでオープンソース化されています。
論文 参考訳(メタデータ) (2022-11-15T17:44:05Z) - MAT: Mask-Aware Transformer for Large Hole Image Inpainting [79.67039090195527]
本稿では, 変圧器と畳み込みの利点を統一する, 大穴塗装の新しいモデルを提案する。
実験では、複数のベンチマークデータセット上で、新しいモデルの最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-03-29T06:36:17Z) - SVBRDF Recovery From a Single Image With Highlights using a Pretrained
Generative Adversarial Network [25.14140648820334]
本稿では,教師なし生成逆向ニューラルネットワーク(GAN)を用いて,SVBRDFsマップを入力として復元する。
SVBRDFを初期化するために訓練されたモデルを再利用し、入力画像に基づいて微調整する。
提案手法は,1枚の入力画像から高品質なSVBRDFマップを生成し,従来よりも鮮明なレンダリング結果を提供する。
論文 参考訳(メタデータ) (2021-10-29T10:39:06Z) - SLIDE: Single Image 3D Photography with Soft Layering and Depth-aware
Inpainting [54.419266357283966]
シングルイメージの3D写真は、視聴者が新しい視点から静止画を見ることを可能にする。
最近のアプローチでは、単分子深度ネットワークと塗装ネットワークを組み合わせることで、説得力のある結果が得られる。
単一画像3D撮影のためのモジュール・統一システムであるSLIDEについて述べる。
論文 参考訳(メタデータ) (2021-09-02T16:37:20Z) - MaterialGAN: Reflectance Capture using a Generative SVBRDF Model [33.578080406338266]
本稿では,StyleGAN2をベースとした深層生成畳み込みネットワークであるMaterialGANを提案する。
逆レンダリングフレームワークにおいて,MaterialGANは強力な素材として利用できることを示す。
携帯端末を用いたフラッシュ照明下で撮影された画像からSVBRDFを再構成する作業において,この枠組みを実証する。
論文 参考訳(メタデータ) (2020-09-30T21:33:00Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。