論文の概要: Learn how to Prune Pixels for Multi-view Neural Image-based Synthesis
- arxiv url: http://arxiv.org/abs/2305.03572v1
- Date: Fri, 5 May 2023 14:29:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 13:44:37.492355
- Title: Learn how to Prune Pixels for Multi-view Neural Image-based Synthesis
- Title(参考訳): 多視点ニューラル画像合成のための画素のプルーニング法
- Authors: Marta Milovanovi\'c, Enzo Tartaglione, Marco Cagnazzo, F\'elix Henry
- Abstract要約: 本稿では,ピクセルプルーニングの手法であるLeHoPPを提案する。
レンダリングビューにおける各入力ピクセルの重要性について検討し、無関係なピクセルの使用を避ける。
画像ベースのレンダリングネットワークを再トレーニングしなくても,合成品質と画素レートのトレードオフは良好である。
- 参考スコア(独自算出の注目度): 10.571582038258443
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image-based rendering techniques stand at the core of an immersive experience
for the user, as they generate novel views given a set of multiple input
images. Since they have shown good performance in terms of objective and
subjective quality, the research community devotes great effort to their
improvement. However, the large volume of data necessary to render at the
receiver's side hinders applications in limited bandwidth environments or
prevents their employment in real-time applications. We present LeHoPP, a
method for input pixel pruning, where we examine the importance of each input
pixel concerning the rendered view, and we avoid the use of irrelevant pixels.
Even without retraining the image-based rendering network, our approach shows a
good trade-off between synthesis quality and pixel rate. When tested in the
general neural rendering framework, compared to other pruning baselines, LeHoPP
gains between $0.9$ dB and $3.6$ dB on average.
- Abstract(参考訳): 画像ベースのレンダリング技術は、複数の入力画像の集合から新しいビューを生成するため、ユーザにとって没入感のある体験の中核に立つ。
客観的な品質と主観的な品質で優れたパフォーマンスを示しているため、研究コミュニティは改善に多大な努力を捧げています。
しかし、受信側のレンダリングに必要な大量のデータが、限られた帯域幅環境でのアプリケーションを妨げるか、リアルタイムアプリケーションでの雇用を妨げている。
本稿では,各画素の描画ビューに対する重要性を検証し,無関係な画素の使用を避けるために,入力画素のプルーニング手法であるLeHoPPを提案する。
画像ベースのレンダリングネットワークを再トレーニングしなくても,合成品質と画素レートのトレードオフは良好である。
一般的なニューラルレンダリングフレームワークでテストすると、他のプルーニングベースラインと比較して、LeHoPPは平均で0.9$dBから3.6$dBになる。
関連論文リスト
- Exploring Multi-view Pixel Contrast for General and Robust Image Forgery Localization [4.8454936010479335]
本稿では,画像フォージェリーローカライゼーションのための多視点Pixel-wise Contrastive Algorithm (MPC)を提案する。
具体的には、まず、教師付きコントラスト損失を伴うバックボーンネットワークを事前訓練する。
次に、クロスエントロピー損失を用いてローカライゼーションヘッドを微調整し、ピクセルローカライザを改良する。
論文 参考訳(メタデータ) (2024-06-19T13:51:52Z) - PixRO: Pixel-Distributed Rotational Odometry with Gaussian Belief Propagation [8.049531918823758]
本稿では,フレーム間回転推定の課題に対処する。
フレーム間の相対的な動きをフルイメージで推論する代わりに、ピクセルレベルで推定を分散する。
このパラダイムでは、各ピクセルは、局所的な情報と近隣のピクセルとの局所的なメッセージパッシングにのみ依存することで、グローバルな動きを推定する。
論文 参考訳(メタデータ) (2024-06-14T05:28:45Z) - Hybrid Neural Rendering for Large-Scale Scenes with Motion Blur [68.24599239479326]
画像ベース表現とニューラル3D表現を結合して高品質なビュー一貫性のある画像をレンダリングするハイブリッドなニューラルレンダリングモデルを開発した。
我々のモデルは、新しいビュー合成のための最先端のポイントベース手法を超越している。
論文 参考訳(メタデータ) (2023-04-25T08:36:33Z) - Multiscale Representation for Real-Time Anti-Aliasing Neural Rendering [84.37776381343662]
Mip-NeRFは、スケール情報をエンコードする円錐フラストラムとしてマルチスケール表現を提案する。
我々は,リアルタイムなアンチエイリアスレンダリングのためのマルチスケールな明示的表現であるmip voxel grids (Mip-VoG)を提案する。
私たちのアプローチは、マルチスケールのトレーニングとリアルタイムのアンチエイリアスレンダリングを同時に提供する最初の方法です。
論文 参考訳(メタデータ) (2023-04-20T04:05:22Z) - Dense Pixel-to-Pixel Harmonization via Continuous Image Representation [22.984119094424056]
Inlicit Neural Networks (HINet) を用いた新しい画像調和手法を提案する。
Retinex理論に触発されて、調和を2つの部分に分離し、合成画像の内容と環境をそれぞれキャプチャする。
本手法の有効性を,最先端の手法と比較した実験により検証した。
論文 参考訳(メタデータ) (2023-03-03T02:52:28Z) - Improving Pixel-Level Contrastive Learning by Leveraging Exogenous Depth
Information [7.561849435043042]
近年,コントラスト学習(CL)に基づく自己指導型表現学習が注目されている。
本稿では,深度ネットワークを用いたり,利用可能なデータから測定したりすることで得られる深度情報に焦点を当てる。
比較損失におけるこの推定情報を用いることで、結果が改善され、学習された表現がオブジェクトの形状に従うのがよいことを示す。
論文 参考訳(メタデータ) (2022-11-18T11:45:39Z) - PixelFolder: An Efficient Progressive Pixel Synthesis Network for Image
Generation [88.55256389703082]
Pixelは画像生成のための有望な研究パラダイムである。
本稿では,Pixel のような効率的な画像生成に向けたプログレッシブピクセル合成ネットワークを提案する。
Pixelは支出を大幅に減らし、2つのベンチマークデータセットで新しい最先端(SOTA)パフォーマンスを得る。
論文 参考訳(メタデータ) (2022-04-02T10:55:11Z) - LookinGood^{\pi}: Real-time Person-independent Neural Re-rendering for
High-quality Human Performance Capture [13.026888802770902]
本稿では,人間のパフォーマンスキャプチャシステムによる低品質な再構成結果のレンダリング品質をリアルタイムに向上することを目的とした,ニューラルリレンダリング手法を提案する。
我々のキーとなる考え方は、再構成された幾何学のレンダリングされたイメージをガイダンスとして利用し、少ない参照画像から人物固有の詳細を予測することである。
本手法は, 身近な人物に対して高忠実度画像を生成する方法よりも, 最先端の手法の方が優れていることを示す。
論文 参考訳(メタデータ) (2021-12-15T11:00:21Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - High-Resolution Image Inpainting with Iterative Confidence Feedback and
Guided Upsampling [122.06593036862611]
既存の画像塗装法は、実アプリケーションで大きな穴を扱う際に、しばしばアーティファクトを生成する。
本稿では,フィードバック機構を備えた反復インペイント手法を提案する。
実験により,本手法は定量評価と定性評価の両方において既存手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2020-05-24T13:23:45Z) - The Power of Triply Complementary Priors for Image Compressive Sensing [89.14144796591685]
本稿では,一対の相補的な旅先を含むLRD画像モデルを提案する。
次に、画像CSのためのRDモデルに基づく新しいハイブリッド・プラグイン・アンド・プレイ・フレームワークを提案する。
そこで,提案したH-based image CS問題の解法として,単純で効果的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-16T08:17:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。