論文の概要: REGEN: Real-Time Photorealism Enhancement in Games via a Dual-Stage Generative Network Framework
- arxiv url: http://arxiv.org/abs/2508.17061v1
- Date: Sat, 23 Aug 2025 15:28:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.319684
- Title: REGEN: Real-Time Photorealism Enhancement in Games via a Dual-Stage Generative Network Framework
- Title(参考訳): REGEN: デュアルステージ生成ネットワークフレームワークによるゲームにおけるリアルタイムフォトリアリズムの強化
- Authors: Stefanos Pasios, Nikos Nikolaidis,
- Abstract要約: 生成的対角ネットワークを用いたレンダリングゲームフレームの光現実性向上のための新しいアプローチを提案する。
デュアルステージgEnerative Network framework(REGEN)によるゲームにおけるリアルタイム光リアリズムの強化を提案する。
提案手法は,頑健なIm2Im法に匹敵する視覚的結果が得られることを示す。
- 参考スコア(独自算出の注目度): 2.478819644330144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Photorealism is an important aspect of modern video games since it can shape the player experience and simultaneously impact the immersion, narrative engagement, and visual fidelity. Although recent hardware technological breakthroughs, along with state-of-the-art rendering technologies, have significantly improved the visual realism of video games, achieving true photorealism in dynamic environments at real-time frame rates still remains a major challenge due to the tradeoff between visual quality and performance. In this short paper, we present a novel approach for enhancing the photorealism of rendered game frames using generative adversarial networks. To this end, we propose Real-time photorealism Enhancement in Games via a dual-stage gEnerative Network framework (REGEN), which employs a robust unpaired image-to-image translation model to produce semantically consistent photorealistic frames that transform the problem into a simpler paired image-to-image translation task. This enables training with a lightweight method that can achieve real-time inference time without compromising visual quality. We demonstrate the effectiveness of our framework on Grand Theft Auto V, showing that the approach achieves visual results comparable to the ones produced by the robust unpaired Im2Im method while improving inference speed by 32.14 times. Our findings also indicate that the results outperform the photorealism-enhanced frames produced by directly training a lightweight unpaired Im2Im translation method to translate the video game frames towards the visual characteristics of real-world images. Code, pre-trained models, and demos for this work are available at: https://github.com/stefanos50/REGEN.
- Abstract(参考訳): フォトリアリズムは現代のビデオゲームにおいて重要な側面であり、プレイヤーの経験を形作り、同時に没入感、物語のエンゲージメント、視覚的忠実さに影響を与える。
近年のハードウェア技術革新は、最先端のレンダリング技術とともに、ビデオゲームの視覚的リアリズムを大幅に改善したものの、リアルタイムフレームレートで動的環境における真のフォトリアリズムを達成することは、視覚的品質とパフォーマンスのトレードオフのために依然として大きな課題である。
本稿では,生成的対角ネットワークを用いたレンダリングゲームフレームの光現実性向上のための新しいアプローチを提案する。
この目的のために,2段階のgEnerative Network framework (REGEN) を用いてゲームにおけるリアルタイムフォトリアリズムの強化を提案する。
これにより、視覚的品質を損なうことなく、リアルタイムな推論時間を達成する軽量な方法によるトレーニングが可能になる。
提案手法は,頑健なIm2Im法に匹敵する視覚的結果が得られるとともに,推論速度を32.14倍に向上することを示す。
また,本研究の結果は,ゲームフレームを実世界の映像の視覚的特徴に変換するために,軽量なIm2Im翻訳法を直接訓練することにより,フォトリアリズムの強化されたフレームよりも優れていた。
コード、事前トレーニングされたモデル、およびこの作業のデモは、https://github.com/stefanos50/REGEN.comで公開されている。
関連論文リスト
- Every Painting Awakened: A Training-free Framework for Painting-to-Animation Generation [25.834500552609136]
I2V(Image-to-Video)合成により,実世界の静的絵画を生かしたトレーニングフリーフレームワークを提案する。
既存のI2V手法は、主に自然なビデオデータセットに基づいて訓練されており、静的な絵画から動的出力を生成するのに苦労することが多い。
我々のフレームワークは既存のI2V手法とプラグイン・アンド・プレイの統合を可能にし、現実世界の絵画をアニメーション化するのに理想的なソリューションとなる。
論文 参考訳(メタデータ) (2025-03-31T05:25:49Z) - Directing Mamba to Complex Textures: An Efficient Texture-Aware State Space Model for Image Restoration [75.51789992466183]
TAMAMbaIRは画像テクスチャの達成と性能と効率のトレードオフを同時に知覚する。
画像超解像, デラリニング, 低照度画像強調のためのベンチマーク実験により, TAMAMbaIRは高い効率で最先端の性能を達成できることを示した。
論文 参考訳(メタデータ) (2025-01-27T23:53:49Z) - FashionR2R: Texture-preserving Rendered-to-Real Image Translation with Diffusion Models [14.596090302381647]
本稿では,レンダリングの制御に基づく拡散モデルから生成するパワーを利用して,レンダリング画像のフォトリアリズム向上について検討する。
ドメイン知識注入(Domain Knowledge Injection, DKI)と現実画像生成(Realistic Image Generation, RIG)という2つの段階から構成される。
論文 参考訳(メタデータ) (2024-10-18T12:48:22Z) - Real-Time Neural Rasterization for Large Scenes [39.198327570559684]
本研究では,大規模シーンのリアルタイムなノベルビュー合成のための新しい手法を提案する。
既存のニューラルネットワークレンダリング手法は現実的な結果を生成するが、主に小規模なシーンで機能する。
私たちの仕事は、大規模な現実世界のシーンのリアルタイムレンダリングを可能にする最初のものです。
論文 参考訳(メタデータ) (2023-11-09T18:59:10Z) - Towards Practical Capture of High-Fidelity Relightable Avatars [60.25823986199208]
TRAvatarは、様々な照明条件下で光ステージでキャプチャされた動的画像シーケンスで訓練される。
1回のフォワードパスでリアルタイムで出現を予測でき、高品質なリライト効果が得られる。
本フレームワークは,光リアリスティックなアバターアニメーションとリライティングの優れた性能を実現する。
論文 参考訳(メタデータ) (2023-09-08T10:26:29Z) - Real-time Virtual-Try-On from a Single Example Image through Deep
Inverse Graphics and Learned Differentiable Renderers [13.894134334543363]
本稿では,リアルタイム逆グラフィックエンコーダを構築するためのディープラーニングに基づく新しいフレームワークを提案する。
我々の模倣者は、与えられた非微分可能画像の振舞いを正確に再現することを学ぶ生成ネットワークである。
我々のフレームワークは、消費者がインスピレーション付き参照画像から未知の商品を仮想的に試すことのできる新しいアプリケーションを可能にする。
論文 参考訳(メタデータ) (2022-05-12T18:44:00Z) - DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer [78.91753256634453]
そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
論文 参考訳(メタデータ) (2021-10-30T01:59:39Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z) - Deep CG2Real: Synthetic-to-Real Translation via Image Disentanglement [78.58603635621591]
画像空間における未ペアの合成-現実翻訳ネットワークの訓練は、厳しい制約下にある。
画像の非交叉シェーディング層とアルベド層に作用する半教師付きアプローチを提案する。
私たちの2段階のパイプラインはまず、物理ベースのレンダリングをターゲットとして、教師付き方法で正確なシェーディングを予測することを学習します。
論文 参考訳(メタデータ) (2020-03-27T21:45:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。