論文の概要: Survey: Machine Learning in Production Rendering
- arxiv url: http://arxiv.org/abs/2005.12518v1
- Date: Tue, 26 May 2020 05:23:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 00:50:35.884381
- Title: Survey: Machine Learning in Production Rendering
- Title(参考訳): 調査:プロダクションレンダリングにおける機械学習
- Authors: Shilin Zhu
- Abstract要約: 機械学習ベースのアプローチは、アニメーション映画をレンダリングするのに大きな成功を収めた。
このサーベイでは、従来のレンダリング方法よりもディープニューラルネットワークを使うことにおいて、最も劇的な改善点をいくつか取り上げている。
- 参考スコア(独自算出の注目度): 6.641648275527867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the past few years, machine learning-based approaches have had some great
success for rendering animated feature films. This survey summarizes several of
the most dramatic improvements in using deep neural networks over traditional
rendering methods, such as better image quality and lower computational
overhead. More specifically, this survey covers the fundamental principles of
machine learning and its applications, such as denoising, path guiding,
rendering participating media, and other notoriously difficult light transport
situations. Some of these techniques have already been used in the latest
released animations while others are still in the continuing development by
researchers in both academia and movie studios. Although learning-based
rendering methods still have some open issues, they have already demonstrated
promising performance in multiple parts of the rendering pipeline, and people
are continuously making new attempts.
- Abstract(参考訳): 過去数年間、機械学習に基づくアプローチは、アニメーション機能映画のレンダリングで大きな成功を収めてきた。
この調査は、画像品質の改善や計算オーバーヘッドの低減など、従来のレンダリング方法よりもディープニューラルネットワークを使用する際の、最も劇的な改善をいくつかまとめたものだ。
より具体的には、この調査は機械学習の基本原則と、その応用、例えば、妄想、経路案内、参加するメディアのレンダリングなど、非常に難しい光輸送状況について取り上げている。
これらのテクニックのいくつかはすでに最新リリースのアニメーションで使われており、他の技術はまだ学界と映画スタジオの両方の研究者によって開発が続けられている。
学習ベースのレンダリングメソッドには、まだいくつかのオープンな問題があるが、すでにレンダリングパイプラインの複数の部分で有望なパフォーマンスを示しており、新たな試みが続けられている。
関連論文リスト
- BAGS: Building Animatable Gaussian Splatting from a Monocular Video with Diffusion Priors [28.033944084753035]
拡散前の単眼ビデオからアニマタブルな3次元ガウススプラッティングを構築する手法を提案する。
3Dガウス表現はトレーニングとレンダリングのプロセスを大幅に加速し、拡散先行法により、限られた視点で3Dモデルを学習することができる。
我々は、様々な実世界のビデオに対して広範囲に評価を行い、現在の最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-18T02:44:46Z) - EasyVolcap: Accelerating Neural Volumetric Video Research [69.59671164891725]
ボリュームビデオは、芸術的パフォーマンス、スポーツイベント、リモート会話などの動的イベントをデジタル的に記録する技術である。
EasyVolcapはPythonとPytorchのライブラリで、マルチビューデータ処理、4Dシーン再構成、効率的なダイナミックボリュームビデオレンダリングのプロセスを統一する。
論文 参考訳(メタデータ) (2023-12-11T17:59:46Z) - Stroke-based Rendering: From Heuristics to Deep Learning [0.17188280334580194]
近年のディープラーニング手法の発展は,ストロークベースの絵画と画素写真生成のギャップを埋めるのに役立つ。
我々は,ストロークベースのレンダリングアルゴリズムにおける共通課題とアプローチについて,構造化された紹介と理解を提供することを目指している。
論文 参考訳(メタデータ) (2022-12-30T05:34:54Z) - PIVOT: Prompting for Video Continual Learning [50.80141083993668]
PIVOTは、画像領域から事前学習したモデルにおける広範な知識を活用する新しい手法である。
実験の結果,PIVOTは20タスクのアクティビティネット設定において,最先端の手法を27%向上することがわかった。
論文 参考訳(メタデータ) (2022-12-09T13:22:27Z) - From Actions to Events: A Transfer Learning Approach Using Improved Deep
Belief Networks [1.0554048699217669]
本稿では,エネルギーモデルを用いた行動認識からイベント認識への知識マッピング手法を提案する。
このようなモデルはすべてのフレームを同時に処理し、学習プロセスを通じて空間的および時間的情報を運ぶことができる。
論文 参考訳(メタデータ) (2022-11-30T14:47:10Z) - Self-Supervised Learning for Videos: A Survey [70.37277191524755]
自己教師型学習は、画像ドメインとビデオドメインの両方で有望である。
本稿では,ビデオ領域に着目した自己教師型学習における既存のアプローチについて概観する。
論文 参考訳(メタデータ) (2022-06-18T00:26:52Z) - Muscle Vision: Real Time Keypoint Based Pose Classification of Physical
Exercises [52.77024349608834]
ビデオから外挿された3D人間のポーズ認識は、リアルタイムソフトウェアアプリケーションを可能にするまで進歩した。
本稿では,ライブビデオフィード上で人間のポーズ認識を行う新しい機械学習パイプラインとWebインターフェースを提案する。
論文 参考訳(メタデータ) (2022-03-23T00:55:07Z) - Towards Transparent Application of Machine Learning in Video Processing [3.491870689686827]
ディープラーニングのブレークスルーにより、より効率的なビデオ圧縮とビデオ強化のための機械学習技術が開発されている。
新しいテクニックは、典型的には、リソースを消費するブラックボックス(内部の作業に関する透明性がほとんどない、過度に複雑である)の形で現れる。
本研究の目的は,ビデオ処理アプリケーションにおける学習モデルの理解と最適化である。
論文 参考訳(メタデータ) (2021-05-26T17:24:23Z) - TEACHTEXT: CrossModal Generalized Distillation for Text-Video Retrieval [103.85002875155551]
本研究では,大規模言語前訓練を利用した一般化蒸留法TeachTextを提案する。
提案手法をビデオ側モダリティに拡張し,テスト時に使用するモダリティの数を効果的に削減できることを示す。
提案手法は,いくつかのビデオ検索ベンチマークの精度を著しく向上させ,テスト時の計算オーバーヘッドを増加させない。
論文 参考訳(メタデータ) (2021-04-16T17:55:28Z) - Non-Adversarial Video Synthesis with Learned Priors [53.26777815740381]
我々は、参照入力フレームを使わずに、遅延雑音ベクトルからビデオを生成する問題に焦点をあてる。
本研究では,入力潜時空間,繰り返しニューラルネットワークの重み付け,非対角学習によるジェネレータを協調的に最適化する手法を開発した。
提案手法は,既存の最先端手法と比較して高品質なビデオを生成する。
論文 参考訳(メタデータ) (2020-03-21T02:57:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。