論文の概要: Perspective Texture Synthesis Based on Improved Energy Optimization
- arxiv url: http://arxiv.org/abs/2006.11851v1
- Date: Sun, 21 Jun 2020 17:12:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 12:31:55.681517
- Title: Perspective Texture Synthesis Based on Improved Energy Optimization
- Title(参考訳): 改良エネルギー最適化に基づく視点テクスチャ合成
- Authors: Syed Muhammad Arsalan Bashir and Farhan Ali Khan Ghouri
- Abstract要約: 本稿では、視点テクスチャを合成するための新しい例に基づく、特にエネルギー最適化に基づくアルゴリズムを提案する。
より高速な合成と高品質を実現するために、2つの側面から改善する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Perspective texture synthesis has great significance in many fields like
video editing, scene capturing etc., due to its ability to read and control
global feature information. In this paper, we present a novel example-based,
specifically energy optimization-based algorithm, to synthesize perspective
textures. Energy optimization technique is a pixel-based approach, so it is
time-consuming. We improve it from two aspects with the purpose of achieving
faster synthesis and high quality. Firstly, we change this pixel-based
technique by replacing the pixel computation with a little patch. Secondly, we
present a novel technique to accelerate searching nearest neighborhoods in
energy optimization. Using k- means clustering technique to build a search tree
to accelerate the search. Hence, we make use of principal component analysis
(PCA) technique to reduce dimensions of input vectors. The high quality results
prove that our approach is feasible. Besides, our proposed algorithm needs
shorter time relative to other similar methods.
- Abstract(参考訳): 視線テクスチャ合成は,グローバルな特徴情報を読み,制御できることから,映像編集やシーンキャプチャなど多くの分野において重要である。
本稿では,視点テクスチャを合成する新しいサンプルベース,特にエネルギー最適化に基づくアルゴリズムを提案する。
エネルギー最適化技術はピクセルベースのアプローチであるため、時間を要する。
より高速な合成と高品質を実現するために、2つの側面から改善する。
まず、画素計算を小さなパッチで置き換えることで、このピクセルベースの手法を変更する。
第2に,エネルギー最適化における近傍探索を高速化する新しい手法を提案する。
k-は、検索を高速化する検索ツリーを構築するためのクラスタリング技術である。
そこで我々は主成分分析(PCA)技術を用いて入力ベクトルの次元を小さくする。
高品質の結果は、我々のアプローチが実現可能であることを証明します。
さらに,提案アルゴリズムは,他の類似手法と比較して短い時間を必要とする。
関連論文リスト
- Efficient Depth-Guided Urban View Synthesis [52.841803876653465]
高速フィードフォワード推論とシーンごとのファインチューニングのための効率的な深層誘導型都市ビュー合成(EDUS)を提案する。
EDUSは、粗い入力画像から一般化可能な都市ビュー合成を可能にするためのガイダンスとして、ノイズの多い幾何学的先行情報を利用する。
その結果,EDUSは高速なテスト時間最適化と組み合わせることで,スパース・ビュー・セッティングにおける最先端性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-07-17T08:16:25Z) - HashPoint: Accelerated Point Searching and Sampling for Neural Rendering [9.418401219498223]
レンダリングとレイトレーシングの2つの典型的なアプローチが採用されている。
ボリューム化ベースの手法は、メモリの増大と忠実度低下を犠牲にしてリアルタイムレンダリングを可能にする。
対照的に、レイトレーシングに基づく手法は優れた品質を得るが、より長い時間を要求する。
我々はこの2つの戦略を組み合わせたHashPoint法によりこの問題を解決する。
論文 参考訳(メタデータ) (2024-04-22T09:57:53Z) - Am\'elioration de la qualit\'e d'images avec un algorithme
d'optimisation inspir\'ee par la nature [0.0]
与えられた画像を改善するために,明示的かつ順序づけられた変換列を得る方法を提案する。
予備的なテストでは、アプローチがさまざまな最先端データセットに与える影響が示される。
論文 参考訳(メタデータ) (2023-03-13T14:25:39Z) - Ultra-High-Definition Low-Light Image Enhancement: A Benchmark and
Transformer-Based Method [51.30748775681917]
低照度画像強調(LLIE)の課題を考察し,4K解像度と8K解像度の画像からなる大規模データベースを導入する。
我々は、系統的なベンチマーク研究を行い、現在のLLIEアルゴリズムと比較する。
第2のコントリビューションとして,変換器をベースとした低照度化手法であるLLFormerを紹介する。
論文 参考訳(メタデータ) (2022-12-22T09:05:07Z) - FastHuman: Reconstructing High-Quality Clothed Human in Minutes [18.643091757385626]
高品質な人体形状を数分で最適化する手法を提案する。
本手法はメッシュベースのパッチワープ手法を用いて,マルチビュー光度整合性を確保する。
提案手法は,合成データセットと実世界のデータセットの両方において有望な結果を示した。
論文 参考訳(メタデータ) (2022-11-26T05:16:39Z) - View Synthesis with Sculpted Neural Points [64.40344086212279]
暗黙の神経表現は印象的な視覚的品質を達成したが、計算効率に欠点がある。
本稿では,点雲を用いたビュー合成を行う新しい手法を提案する。
レンダリング速度を100倍以上速くしながら、NeRFよりも視覚的品質を向上する最初のポイントベース手法である。
論文 参考訳(メタデータ) (2022-05-12T03:54:35Z) - A modular software framework for the design and implementation of
ptychography algorithms [55.41644538483948]
我々は,Pychographyデータセットをシミュレートし,最先端の再構築アルゴリズムをテストすることを目的とした,新しいptychographyソフトウェアフレームワークであるSciComを紹介する。
その単純さにもかかわらず、ソフトウェアはPyTorchインターフェースによる高速化処理を利用する。
結果は合成データと実データの両方で示される。
論文 参考訳(メタデータ) (2022-05-06T16:32:37Z) - PixelFolder: An Efficient Progressive Pixel Synthesis Network for Image
Generation [88.55256389703082]
Pixelは画像生成のための有望な研究パラダイムである。
本稿では,Pixel のような効率的な画像生成に向けたプログレッシブピクセル合成ネットワークを提案する。
Pixelは支出を大幅に減らし、2つのベンチマークデータセットで新しい最先端(SOTA)パフォーマンスを得る。
論文 参考訳(メタデータ) (2022-04-02T10:55:11Z) - Thinking Fast and Slow: Efficient Text-to-Visual Retrieval with
Transformers [115.90778814368703]
目的は,大規模画像とビデオデータセットの言語検索である。
このタスクでは、独立してテキストとビジョンを共同埋め込み空間 a.k.a にマッピングする。
デュアルエンコーダは 検索スケールとして魅力的です
視覚テキスト変換器をクロスアテンションで使用する別のアプローチは、関節埋め込みよりも精度が大幅に向上する。
論文 参考訳(メタデータ) (2021-03-30T17:57:08Z) - A General-Purpose Dehazing Algorithm based on Local Contrast Enhancement
Approaches [2.383083450554816]
脱毛は霧の環境で撮影された画像を強化する作業である。
本稿では,複数の局所的コントラスト調整アルゴリズムに適した脱ハージング手法を提案する。
論文 参考訳(メタデータ) (2020-05-31T17:25:22Z) - A Survey on Patch-based Synthesis: GPU Implementation and Optimization [0.0]
この論文は、小さな局所領域間の対応を見つけるためのパッチベースの合成とアルゴリズムの研究を調査する。
私たちが研究したアルゴリズムの1つは、PatchMatchで、画像の類似した領域や「パッチ」を見つけることができる。
コンピュータグラフィックスでは、画像から不要な物体を取り除き、画像中の物体をシームレスに移動させ、画像のアスペクト比を変え、映像の要約を行った。
論文 参考訳(メタデータ) (2020-05-11T19:25:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。