論文の概要: Generative Adversarial Shaders for Real-Time Realism Enhancement
- arxiv url: http://arxiv.org/abs/2306.04629v1
- Date: Wed, 24 May 2023 15:42:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-11 13:25:39.440132
- Title: Generative Adversarial Shaders for Real-Time Realism Enhancement
- Title(参考訳): 実時間リアリズムエンハンスメントのための生成的逆シェーダ
- Authors: Arturo Salmi, Szabolcs Cs\'efalvay, James Imber
- Abstract要約: 機械学習技術をリアルタイムアプリケーションに適用する,高性能で生成可能なシェーダベースアプローチを提案する。
提案した学習可能なシェーダパイプラインは、エンドツーエンドでトレーニング可能な微分可能な関数から構成される。
パイプラインはターゲットデバイス上での高効率な実行に最適化されており、時間的に安定し、より高速なリアルタイム結果を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Application of realism enhancement methods, particularly in real-time and
resource-constrained settings, has been frustrated by the expense of existing
methods. These achieve high quality results only at the cost of long runtimes
and high bandwidth, memory, and power requirements. We present an efficient
alternative: a high-performance, generative shader-based approach that adapts
machine learning techniques to real-time applications, even in
resource-constrained settings such as embedded and mobile GPUs. The proposed
learnable shader pipeline comprises differentiable functions that can be
trained in an end-to-end manner using an adversarial objective, allowing for
faithful reproduction of the appearance of a target image set without manual
tuning. The shader pipeline is optimized for highly efficient execution on the
target device, providing temporally stable, faster-than-real time results with
quality competitive with many neural network-based methods.
- Abstract(参考訳): 現実性向上手法の応用は,特にリアルタイム・資源制約設定において,既存の手法を犠牲にすることでいらいらしている。
これらは、長いランタイムと高い帯域幅、メモリ、電力要求のコストで、高品質な結果を得る。
組み込みGPUやモバイルGPUのようなリソース制約のある設定であっても,機械学習技術をリアルタイムアプリケーションに適用する,高性能で生成可能なシェーダベースアプローチを提案する。
提案した学習可能なシェーダパイプラインは、対向目的を用いてエンドツーエンドで訓練可能な機能を備えており、手動チューニングなしでターゲット画像の外観を忠実に再現することができる。
シェーダパイプラインはターゲットデバイス上での高効率な実行に最適化されており、時間的に安定しており、多くのニューラルネットワークベースの手法と品質の競争力のあるリアルタイムな結果を提供する。
関連論文リスト
- STLight: a Fully Convolutional Approach for Efficient Predictive Learning by Spatio-Temporal joint Processing [6.872340834265972]
チャネルワイドおよび深度ワイドの畳み込みを学習可能な層としてのみ依存する,S時間学習のための新しい方法STLightを提案する。
STLightは、空間次元と時間次元を並べ替えることで、従来の畳み込みアプローチの限界を克服する。
本アーキテクチャは,データセットや設定のSTLベンチマーク上での最先端性能を実現するとともに,パラメータや計算FLOPの計算効率を大幅に向上させる。
論文 参考訳(メタデータ) (2024-11-15T13:53:19Z) - Track Everything Everywhere Fast and Robustly [46.362962852140015]
ビデオ中の任意のピクセルを効率的に追跡するための新しいテスト時間最適化手法を提案する。
本稿では,関数表現を局所的な時空間特徴グリッドに分解する,新しい非可逆変形ネットワークCaDeX++を提案する。
本実験は,SoTA最適化手法であるOmniMotion上でのトレーニング速度( textbf10 倍の速度),堅牢性,精度を著しく向上したことを示す。
論文 参考訳(メタデータ) (2024-03-26T17:58:22Z) - Self-STORM: Deep Unrolled Self-Supervised Learning for Super-Resolution Microscopy [55.2480439325792]
我々は、シーケンス固有のモデルベースのオートエンコーダをトレーニングすることで、そのようなデータの必要性を軽減する、深層無学習の自己教師付き学習を導入する。
提案手法は, 監視対象の性能を超過する。
論文 参考訳(メタデータ) (2024-03-25T17:40:32Z) - VoxNeRF: Bridging Voxel Representation and Neural Radiance Fields for
Enhanced Indoor View Synthesis [51.49008959209671]
本稿では,室内ビュー合成の品質と効率を高めるために,ボリューム表現を活用する新しいアプローチであるVoxNeRFを紹介する。
我々は,空間的特徴を適応的に捉えるためにマルチレゾリューション・ハッシュ・グリッドを使用し,室内シーンの閉塞や複雑な形状を効果的に管理する。
我々は,3つの屋内データセットに対するアプローチを検証するとともに,VoxNeRFが最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-11-09T11:32:49Z) - Temporal Patience: Efficient Adaptive Deep Learning for Embedded Radar
Data Processing [4.359030177348051]
本稿では,ストリーミングレーダデータに存在する時間相関を利用して,組込みデバイス上でのディープラーニング推論のための早期排他ニューラルネットワークの効率を向上させる手法を提案する。
以上の結果から,提案手法は単一排他ネットワーク上での推論当たりの演算量の最大26%を削減し,信頼度に基づく早期排他バージョンで12%を削減できることがわかった。
このような効率向上により、リソース制約のあるプラットフォーム上でリアルタイムなレーダデータ処理が可能になり、スマートホーム、インターネット・オブ・シング、人間とコンピュータのインタラクションといったコンテキストにおける新しいアプリケーションが可能になる。
論文 参考訳(メタデータ) (2023-09-11T12:38:01Z) - RealLiFe: Real-Time Light Field Reconstruction via Hierarchical Sparse
Gradient Descent [23.4659443904092]
EffLiFeは、スパースビュー画像から高品質な光場をリアルタイムで生成する新しい光場最適化手法である。
本手法は,最先端のオフライン手法よりも平均100倍高速な視覚的品質を実現する。
論文 参考訳(メタデータ) (2023-07-06T14:31:01Z) - GloptiNets: Scalable Non-Convex Optimization with Certificates [61.50835040805378]
本稿では,ハイパーキューブやトーラス上のスムーズな関数を扱う証明書を用いた非キューブ最適化手法を提案する。
スペクトルの減衰に固有の対象関数の正則性を活用することにより、正確な証明を取得し、高度で強力なニューラルネットワークを活用することができる。
論文 参考訳(メタデータ) (2023-06-26T09:42:59Z) - A Simple Baseline for StyleGAN Inversion [133.5868210969111]
StyleGANのインバージョンは、トレーニング済みのStyleGANを実際の顔画像編集タスクに使用できるようにする上で重要な役割を果たす。
既存の最適化ベースの手法は高品質な結果を生み出すことができるが、最適化には時間がかかることが多い。
StyleGANインバージョンのための新しいフィードフォワードネットワークを提示し、効率と品質の面で大幅に改善します。
論文 参考訳(メタデータ) (2021-04-15T17:59:49Z) - Object-based Illumination Estimation with Rendering-aware Neural
Networks [56.01734918693844]
個々の物体とその局所画像領域のRGBD外観から高速環境光推定手法を提案する。
推定照明により、仮想オブジェクトは実際のシーンと一貫性のあるシェーディングでARシナリオでレンダリングできる。
論文 参考訳(メタデータ) (2020-08-06T08:23:19Z) - An Image Enhancing Pattern-based Sparsity for Real-time Inference on
Mobile Devices [58.62801151916888]
パターンと接続性を組み合わせた新しい空間空間,すなわちパターンベースの空間空間を導入し,高度に正確かつハードウェアに親しみやすいものにした。
新たなパターンベースの空間性に対する我々のアプローチは,モバイルプラットフォーム上での高効率DNN実行のためのコンパイラ最適化に自然に適合する。
論文 参考訳(メタデータ) (2020-01-20T16:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。