論文の概要: SyntheticFur dataset for neural rendering
- arxiv url: http://arxiv.org/abs/2105.06409v1
- Date: Thu, 13 May 2021 16:31:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-14 14:05:44.791604
- Title: SyntheticFur dataset for neural rendering
- Title(参考訳): ニューラルレンダリングのためのSyntheticFurデータセット
- Authors: Trung Le, Ryan Poplin, Fred Bertsch, Andeep Singh Toor, Margaret L. Oh
- Abstract要約: 機械学習トレーニング用に構築されたSyntheticFurと呼ばれる新しいデータセットを紹介します。
データセットはレイトレース合成毛皮レンダリングと対応する入力バッファとシミュレーションデータファイルで構成されている。
Houdiniで約140,000枚の画像と15のシミュレーションを手続き的に生成しました。
- 参考スコア(独自算出の注目度): 11.351079648906072
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce a new dataset called SyntheticFur built specifically for machine
learning training. The dataset consists of ray traced synthetic fur renders
with corresponding rasterized input buffers and simulation data files. We
procedurally generated approximately 140,000 images and 15 simulations with
Houdini. The images consist of fur groomed with different skin primitives and
move with various motions in a predefined set of lighting environments. We also
demonstrated how the dataset could be used with neural rendering to
significantly improve fur graphics using inexpensive input buffers by training
a conditional generative adversarial network with perceptual loss. We hope the
availability of such high fidelity fur renders will encourage new advances with
neural rendering for a variety of applications.
- Abstract(参考訳): 機械学習トレーニングに特化したSyntheticFurという新しいデータセットを導入しました。
データセットは、対応するラスタ化入力バッファとシミュレーションデータファイルを備えたレイトレース合成ファーレンダリングからなる。
Houdiniで約14万の画像と15のシミュレーションを手続き的に生成した。
画像は、異なる肌のプリミティブを身にまとい、あらかじめ定義された照明環境で様々な動きで動きます。
また,ニューラルネットワークを用いて,条件付き生成対向ネットワークを学習することで,安価な入力バッファを用いてファイングラフィックスを著しく改善する方法について実証した。
このような高忠実度ファームレンダリングが利用可能になることで、さまざまなアプリケーションに対するニューラルレンダリングによる新たな進歩が期待できる。
関連論文リスト
- DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - Neural Texture Puppeteer: A Framework for Neural Geometry and Texture
Rendering of Articulated Shapes, Enabling Re-Identification at Interactive
Speed [2.8544822698499255]
我々はニューラルテクスチュア Puppeteer と呼ぶテクスチャ化された形状のためのニューラルレンダリングパイプラインを提案する。
テクスチャオートエンコーダは、この情報を利用して、テクスチャ化された画像をグローバルな潜在コードにエンコードする。
本手法は,データに制限がある絶滅危惧種に適用できる。
論文 参考訳(メタデータ) (2023-11-28T10:51:05Z) - Hybrid Neural Rendering for Large-Scale Scenes with Motion Blur [68.24599239479326]
画像ベース表現とニューラル3D表現を結合して高品質なビュー一貫性のある画像をレンダリングするハイブリッドなニューラルレンダリングモデルを開発した。
我々のモデルは、新しいビュー合成のための最先端のポイントベース手法を超越している。
論文 参考訳(メタデータ) (2023-04-25T08:36:33Z) - Is synthetic data from generative models ready for image recognition? [69.42645602062024]
本研究では,最新のテキスト・画像生成モデルから生成した合成画像が,画像認識タスクにどのように利用できるかを検討した。
本稿では,既存の生成モデルからの合成データの強大さと欠点を示し,認識タスクに合成データを適用するための戦略を提案する。
論文 参考訳(メタデータ) (2022-10-14T06:54:24Z) - Human Performance Modeling and Rendering via Neural Animated Mesh [40.25449482006199]
従来のメッシュをニューラルレンダリングの新たなクラスでブリッジします。
本稿では,映像から人間の視点をレンダリングする新しい手法を提案する。
我々は、ARヘッドセットにバーチャルヒューマンパフォーマンスを挿入して、さまざまなプラットフォーム上でのアプローチを実証する。
論文 参考訳(メタデータ) (2022-09-18T03:58:00Z) - RTMV: A Ray-Traced Multi-View Synthetic Dataset for Novel View Synthesis [104.53930611219654]
約2000の複雑なシーンからレンダリングされた300k画像からなる,新しいビュー合成のための大規模合成データセットを提案する。
データセットは、新しいビュー合成のための既存の合成データセットよりも桁違いに大きい。
高品質な3Dメッシュの4つのソースを使用して、私たちのデータセットのシーンは、カメラビュー、照明、形状、材料、テクスチャの難しいバリエーションを示します。
論文 参考訳(メタデータ) (2022-05-14T13:15:32Z) - Predicting Loose-Fitting Garment Deformations Using Bone-Driven Motion
Networks [63.596602299263935]
本稿では,骨駆動型モーションネットワークを用いて,ゆるやかな衣服メッシュの変形を対話的に予測する学習アルゴリズムを提案する。
提案手法は,メッシュ変形の予測精度を約20%,ハウスドルフ距離とSTEDで約10%向上させる。
論文 参考訳(メタデータ) (2022-05-03T07:54:39Z) - DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer [78.91753256634453]
そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
論文 参考訳(メタデータ) (2021-10-30T01:59:39Z) - BIM Hyperreality: Data Synthesis Using BIM and Hyperrealistic Rendering
for Deep Learning [3.4461633417989184]
写真に物体認識を構築するニューラルネットワークを訓練するためのハイブリッドシステムの概念を提示する。
本論文で提示した具体的ケーススタディでは,合成データで学習したニューラルネットワークを用いて,トレーニングデータに写真を用いることなく,写真から物体を識別できることが示されている。
論文 参考訳(メタデータ) (2021-05-10T04:08:24Z) - PennSyn2Real: Training Object Recognition Models without Human Labeling [12.923677573437699]
我々はPennSyn2Realを提案する。20種類以上のマイクロエアロビー(MAV)の10万以上の4K画像からなる合成データセットである。
このデータセットは、MAV検出や分類などのハイレベルコンピュータビジョンタスクのための任意の数のトレーニングイメージを生成するために使用することができる。
このフレームワークを用いて生成された合成データは,検出やセグメンテーションといった一般的なオブジェクト認識タスクに対して,CNNモデルをトレーニングするために直接利用できることを示す。
論文 参考訳(メタデータ) (2020-09-22T02:53:40Z) - Dataset Condensation with Gradient Matching [36.14340188365505]
本研究では,大規模なデータセットを,深層ニューラルネットワークをスクラッチからトレーニングするための情報的合成サンプルの小さなセットに凝縮させることを学習する,データセット凝縮という,データ効率のよい学習のためのトレーニングセット合成手法を提案する。
いくつかのコンピュータビジョンベンチマークでその性能を厳格に評価し、最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-10T16:30:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。