論文の概要: HyPER-GAN: Hybrid Patch-Based Image-to-Image Translation for Real-Time Photorealism Enhancement
- arxiv url: http://arxiv.org/abs/2603.10604v1
- Date: Wed, 11 Mar 2026 10:05:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.889948
- Title: HyPER-GAN: Hybrid Patch-Based Image-to-Image Translation for Real-Time Photorealism Enhancement
- Title(参考訳): HyPER-GAN:リアルタイム光リアリズム向上のためのハイブリッドパッチベース画像変換
- Authors: Stefanos Pasios, Nikos Nikolaidis,
- Abstract要約: リアルタイム推論のために設計されたU-Netスタイルのジェネレータをベースとした,軽量な画像から画像への変換手法を提案する。
HyPER-GANは、推論レイテンシ、ビジュアルリアリズム、セマンティックロバストネスの観点から、最先端のイメージ対画像変換法より優れている。
- 参考スコア(独自算出の注目度): 2.478819644330144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative models are widely employed to enhance the photorealism of synthetic data for training computer vision algorithms. However, they often introduce visual artifacts that degrade the accuracy of these algorithms and require high computational resources, limiting their applicability in real-time training or evaluation scenarios. In this paper, we propose Hybrid Patch Enhanced Realism Generative Adversarial Network (HyPER-GAN), a lightweight image-to-image translation method based on a U-Net-style generator designed for real-time inference. The model is trained using paired synthetic and photorealism-enhanced images, complemented by a hybrid training strategy that incorporates matched patches from real-world data to improve visual realism and semantic consistency. Experimental results demonstrate that HyPER-GAN outperforms state-of-the-art paired image-to-image translation methods in terms of inference latency, visual realism, and semantic robustness. Moreover, it is illustrated that the proposed hybrid training strategy indeed improves visual quality and semantic consistency compared to training the model solely with paired synthetic and photorealism-enhanced images. Code and pretrained models are publicly available for download at: https://github.com/stefanos50/HyPER-GAN
- Abstract(参考訳): 生成モデルは、コンピュータビジョンアルゴリズムを訓練するための合成データのフォトリアリズムを高めるために広く利用されている。
しかし、彼らはしばしば、これらのアルゴリズムの精度を低下させ、高い計算資源を必要とする視覚的アーティファクトを導入し、リアルタイムのトレーニングや評価シナリオにおける適用性を制限する。
本稿では,リアルタイム推論用に設計されたU-Netスタイルのジェネレータをベースとした画像間変換手法であるHybrid Patch Enhanced Realism Generative Adversarial Network (HyPER-GAN)を提案する。
このモデルは、ビジュアルリアリズムとセマンティック一貫性を改善するために、実世界のデータからマッチしたパッチを組み込んだハイブリッドトレーニング戦略によって補完される、合成とフォトリアリズムの併用画像を用いて訓練される。
実験の結果,HyPER-GANは推論遅延,視覚リアリズム,セマンティックロバスト性の観点から,最先端の対画像変換法より優れていた。
さらに,提案したハイブリッドトレーニング手法は,合成画像とフォトリアリズム強調画像のみを用いたトレーニングに比べて,視覚的品質とセマンティック一貫性を向上することを示した。
コードおよび事前トレーニングされたモデルは、https://github.com/stefanos50/HyPER-GANでダウンロード可能である。
関連論文リスト
- Computer vision training dataset generation for robotic environments using Gaussian splatting [0.0]
本稿では,ロボット環境におけるコンピュータビジョンタスクのための大規模かつ現実的で,自動的にラベル付けされたデータセットを生成するための新しいパイプラインを提案する。
我々は3Dガウススプラッティング(3DGS)を利用して、運用環境とオブジェクトの光リアル表現を作成する。
新たな2パスレンダリング技術は、スプレートのリアリズムと、プロキシメッシュから生成されたシャドウマップを組み合わせる。
画素完全セグメンテーションマスクは自動的に生成され、YOLOのようなオブジェクト検出モデルで直接使用するためにフォーマットされる。
論文 参考訳(メタデータ) (2025-12-15T15:00:17Z) - RealGen: Photorealistic Text-to-Image Generation via Detector-Guided Rewards [53.25632969696776]
フォトリアリスティック画像生成のためのテキスト・ツー・イメージ・フレームワークであるRealGenを提案する。
敵対的生成にインスパイアされたRealGenは、アーティファクトを定量化し、リアリズムを評価する"Detector Reward"メカニズムを導入した。
実験によると、RealGenはGPT-Image-1やQwen-Imageといった一般的なモデルやFLUX-Kreaのような特殊なフォトリアリスティックモデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2025-11-29T12:52:26Z) - Is Synthetic Image Useful for Transfer Learning? An Investigation into Data Generation, Volume, and Utilization [62.157627519792946]
ブリッジドトランスファー(ブリッジドトランスファー)と呼ばれる新しいフレームワークを導入する。このフレームワークは、当初、トレーニング済みモデルの微調整に合成画像を使用し、転送性を向上させる。
合成画像と実画像のスタイルアライメントを改善するために,データセットスタイルの逆変換方式を提案する。
提案手法は10の異なるデータセットと5つの異なるモデルで評価され、一貫した改善が示されている。
論文 参考訳(メタデータ) (2024-03-28T22:25:05Z) - Generalizable Synthetic Image Detection via Language-guided Contrastive Learning [22.533225521726116]
偽ニュースの拡散や偽のプロフィールの作成などの合成画像の真偽の使用は、画像の真正性に関する重要な懸念を提起する。
本稿では,言語誘導型コントラスト学習を用いた簡易かつ効果的な合成画像検出手法を提案する。
提案したLanguAge-guided SynThEsis Detection (LASTED) モデルでは,画像生成モデルに対する一般化性が大幅に向上していることが示されている。
論文 参考訳(メタデータ) (2023-05-23T08:13:27Z) - Automated Synthetic-to-Real Generalization [142.41531132965585]
本稿では,レイヤワイズ学習率の選択を自動化するためのテキスト学習最適化(L2O)戦略を提案する。
提案手法は,実データを見たり,トレーニングしたりすることなく,合成から現実への一般化性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2020-07-14T10:57:34Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z) - Deep CG2Real: Synthetic-to-Real Translation via Image Disentanglement [78.58603635621591]
画像空間における未ペアの合成-現実翻訳ネットワークの訓練は、厳しい制約下にある。
画像の非交叉シェーディング層とアルベド層に作用する半教師付きアプローチを提案する。
私たちの2段階のパイプラインはまず、物理ベースのレンダリングをターゲットとして、教師付き方法で正確なシェーディングを予測することを学習します。
論文 参考訳(メタデータ) (2020-03-27T21:45:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。