論文の概要: Mapping New Realities: Ground Truth Image Creation with Pix2Pix Image-to-Image Translation
- arxiv url: http://arxiv.org/abs/2404.19265v2
- Date: Wed, 1 May 2024 00:51:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-02 10:59:25.971057
- Title: Mapping New Realities: Ground Truth Image Creation with Pix2Pix Image-to-Image Translation
- Title(参考訳): 新しい現実をマッピングする:Pix2Pix画像から画像への変換による地中真実画像作成
- Authors: Zhenglin Li, Bo Guan, Yuanzhou Wei, Yiming Zhou, Jingyu Zhang, Jinxin Xu,
- Abstract要約: 本稿では,抽象地図画像から現実的な地上真実画像へ変換するPix2Pixの新たな応用について検討する。
本稿では,Pix2Pixモデルを用いた高忠実度データセットの生成について述べる。
- 参考スコア(独自算出の注目度): 4.767259403145913
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) have significantly advanced image processing, with Pix2Pix being a notable framework for image-to-image translation. This paper explores a novel application of Pix2Pix to transform abstract map images into realistic ground truth images, addressing the scarcity of such images crucial for domains like urban planning and autonomous vehicle training. We detail the Pix2Pix model's utilization for generating high-fidelity datasets, supported by a dataset of paired map and aerial images, and enhanced by a tailored training regimen. The results demonstrate the model's capability to accurately render complex urban features, establishing its efficacy and potential for broad real-world applications.
- Abstract(参考訳): Generative Adversarial Networks (GANs) は画像処理が大幅に進歩し、Pix2Pix は画像から画像への変換のための重要なフレームワークである。
本稿では,抽象地図画像から現実的な地上真実画像へ変換するPix2Pixの新たな応用を探求し,都市計画や自動運転車訓練などの領域において重要な画像の不足に対処する。
Pix2Pixモデルは高忠実度データセットの生成に利用されており、ペアマップと空中画像のデータセットによってサポートされており、調整されたトレーニングレギュレーションによって強化されている。
その結果、モデルが複雑な都市の特徴を正確にレンダリングする能力を示し、その有効性と幅広い実世界の応用の可能性を確立した。
関連論文リスト
- FashionR2R: Texture-preserving Rendered-to-Real Image Translation with Diffusion Models [14.596090302381647]
本稿では,レンダリングの制御に基づく拡散モデルから生成するパワーを利用して,レンダリング画像のフォトリアリズム向上について検討する。
ドメイン知識注入(Domain Knowledge Injection, DKI)と現実画像生成(Realistic Image Generation, RIG)という2つの段階から構成される。
論文 参考訳(メタデータ) (2024-10-18T12:48:22Z) - PixWizard: Versatile Image-to-Image Visual Assistant with Open-Language Instructions [66.92809850624118]
PixWizardは、画像生成、操作、翻訳を自由言語命令に基づいて行うために設計されたイメージ・ツー・イメージのビジュアルアシスタントである。
我々は、様々な視覚タスクを統一された画像テキスト・画像生成フレームワークに取り組み、Omni Pixel-to-Pixel Instruction-Tuningデータセットをキュレートする。
我々の実験は、PixWizardが様々な解像度の画像に対して印象的な生成能力と理解能力を示すだけでなく、目に見えないタスクや人間の指示で有望な一般化能力を示すことを示した。
論文 参考訳(メタデータ) (2024-09-23T17:59:46Z) - MaRINeR: Enhancing Novel Views by Matching Rendered Images with Nearby References [49.71130133080821]
MaRINeRは、近くのマッピング画像の情報を活用して、ターゲット視点のレンダリングを改善する方法である。
暗黙のシーン表現と暗黙のシーン表現の両方から、定量的な指標と定性的な例のレンダリングの改善を示す。
論文 参考訳(メタデータ) (2024-07-18T17:50:03Z) - Synthesizing Traffic Datasets using Graph Neural Networks [2.444217495283211]
本稿では,2次元交通シミュレーションと記録ジャンクション映像からフォトリアリスティックな画像を作成することによって,この「シムリアル」ギャップを埋める新しい手法を提案する。
本稿では,現実的な都市交通画像の作成を容易にするために,条件付き生成適応ネットワークとグラフニューラルネットワーク(GNN)を統合した新しい画像生成手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T13:24:19Z) - Pixel-Inconsistency Modeling for Image Manipulation Localization [59.968362815126326]
デジタル画像法医学は、画像認証と操作のローカライゼーションにおいて重要な役割を果たす。
本稿では,画素不整合アーチファクトの解析を通じて,一般化されたロバストな操作ローカライゼーションモデルを提案する。
実験により,本手法は固有の画素不整合偽指紋を抽出することに成功した。
論文 参考訳(メタデータ) (2023-09-30T02:54:51Z) - Image Inpainting Using Wasserstein Generative Adversarial Imputation
Network [0.0]
本稿では,Wasserstein Generative Adversarial Imputation Networkに基づく画像インペイントモデルを提案する。
普遍計算モデルは、十分な品質で欠落の様々なシナリオを扱うことができる。
論文 参考訳(メタデータ) (2021-06-23T05:55:07Z) - Using GANs to Augment Data for Cloud Image Segmentation Task [2.294014185517203]
本稿では,GAN(Generative Adversarial Networks)によるデータ生成の有効性を示す。
また,GAN生成した画像の2進2進写像を推定し,画像として有効に活用する方法を提案する。
論文 参考訳(メタデータ) (2021-06-06T09:01:43Z) - cGANs for Cartoon to Real-life Images [0.4724825031148411]
このプロジェクトは、漫画化された画像からなるデータセットに適用することによって、Pix2Pixモデルの堅牢性を評価することを目指している。
ネットワークを訓練して、漫画化された画像から実際の画像を生成することができるはずです。
論文 参考訳(メタデータ) (2021-01-24T20:26:31Z) - Region-adaptive Texture Enhancement for Detailed Person Image Synthesis [86.69934638569815]
RATE-Netは、シャープなテクスチャで人物画像を合成するための新しいフレームワークである。
提案するフレームワークは,テクスチャ強化モジュールを利用して,画像から外観情報を抽出する。
DeepFashionベンチマークデータセットで実施された実験は、既存のネットワークと比較して、我々のフレームワークの優位性を実証した。
論文 参考訳(メタデータ) (2020-05-26T02:33:21Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z) - Unlimited Resolution Image Generation with R2D2-GANs [69.90258455164513]
本稿では,任意の解像度の高品質な画像を生成するための新しいシミュレーション手法を提案する。
この方法では、フル長のミッション中に収集したソナースキャンと同等の大きさのソナースキャンを合成することができる。
生成されたデータは、連続的で、現実的に見え、また、取得の実際の速度の少なくとも2倍の速さで生成される。
論文 参考訳(メタデータ) (2020-03-02T17:49:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。