論文の概要: Visibility-Aware Pixelwise View Selection for Multi-View Stereo Matching
- arxiv url: http://arxiv.org/abs/2302.07182v1
- Date: Tue, 14 Feb 2023 16:50:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-15 14:48:25.828877
- Title: Visibility-Aware Pixelwise View Selection for Multi-View Stereo Matching
- Title(参考訳): 多視点ステレオマッチングのための視認性を考慮したピクセルワイズビュー選択
- Authors: Zhentao Huang, Yukun Shi, Minglun Gong
- Abstract要約: 本稿では,新しい可視性誘導画素ワイドビュー選択方式を提案する。
参照ビューの各ピクセルで使用されるソースビューのセットを徐々に洗練する。
さらに,異なる画素に対して並列に最適な解を求めるために,Artificial Multi-Bee Colonyアルゴリズムが用いられている。
- 参考スコア(独自算出の注目度): 9.915386906818485
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The performance of PatchMatch-based multi-view stereo algorithms depends
heavily on the source views selected for computing matching costs. Instead of
modeling the visibility of different views, most existing approaches handle
occlusions in an ad-hoc manner. To address this issue, we propose a novel
visibility-guided pixelwise view selection scheme in this paper. It
progressively refines the set of source views to be used for each pixel in the
reference view based on visibility information provided by already validated
solutions. In addition, the Artificial Multi-Bee Colony (AMBC) algorithm is
employed to search for optimal solutions for different pixels in parallel.
Inter-colony communication is performed both within the same image and among
different images. Fitness rewards are added to validated and propagated
solutions, effectively enforcing the smoothness of neighboring pixels and
allowing better handling of textureless areas. Experimental results on the DTU
dataset show our method achieves state-of-the-art performance among
non-learning-based methods and retrieves more details in occluded and
low-textured regions.
- Abstract(参考訳): PatchMatchベースのマルチビューステレオアルゴリズムの性能は、マッチングコストの計算に選択されたソースビューに大きく依存する。
異なるビューの可視性をモデル化する代わりに、既存のアプローチのほとんどは、アドホックな方法でオクルージョンを扱う。
この問題に対処するため,本稿では,新しい視認性誘導型ピクセルワイズビュー選択スキームを提案する。
すでに検証済みのソリューションが提供する可視性情報に基づいて、参照ビューの各ピクセルで使用されるソースビューのセットを段階的に洗練する。
さらに、異なる画素の最適解を並列に探索するために、人工マルチビーコロニー(ambc)アルゴリズムが用いられる。
同一画像内および異なる画像間で、コニー間通信を行う。
適度な報酬は、検証および伝播されたソリューションに追加され、隣接するピクセルの滑らかさを効果的に強化し、テクスチャのない領域をよりうまく扱うことができる。
DTUデータセットによる実験結果から,本手法は非学習手法間の最先端性能を実現し,非学習領域と低テクスチャ領域の詳細な情報を取得する。
関連論文リスト
- A Global Depth-Range-Free Multi-View Stereo Transformer Network with Pose Embedding [76.44979557843367]
本稿では,事前の深度範囲を排除した新しい多視点ステレオ(MVS)フレームワークを提案する。
長距離コンテキスト情報を集約するMDA(Multi-view Disparity Attention)モジュールを導入する。
ソース画像のエピポーラ線上のサンプリング点に対応する電流画素の品質を明示的に推定する。
論文 参考訳(メタデータ) (2024-11-04T08:50:16Z) - CricaVPR: Cross-image Correlation-aware Representation Learning for Visual Place Recognition [73.51329037954866]
視覚的位置認識のための画像間相関認識を用いたロバストなグローバル表現手法を提案する。
本手法では,バッチ内の複数の画像の相関にアテンション機構を用いる。
本手法は,訓練時間を大幅に短縮し,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-29T15:05:11Z) - Layered Rendering Diffusion Model for Zero-Shot Guided Image Synthesis [60.260724486834164]
本稿では,テキストクエリに依存する拡散モデルにおける空間制御性向上のための革新的な手法を提案する。
視覚誘導(Vision Guidance)とレイヤーレンダリング拡散(Layered Rendering Diffusion)フレームワーク(Layered Diffusion)という2つの重要なイノベーションを提示します。
本稿では,ボックス・ツー・イメージ,セマンティック・マスク・ツー・イメージ,画像編集の3つの実践的応用に適用する。
論文 参考訳(メタデータ) (2023-11-30T10:36:19Z) - Patch-Wise Self-Supervised Visual Representation Learning: A Fine-Grained Approach [4.9204263448542465]
本研究は、パッチレベルの識別を自己教師付き視覚表現学習に組み込むことにより、革新的できめ細かな次元を導入する。
それぞれのパッチは個別に拡張され、同じビュー内の他のパッチとは独立している。
我々は、拡張ビュー全体にわたって対応するパッチを見つけるための、単純で効果的なパッチマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-28T09:35:30Z) - Multi-Spectral Image Stitching via Spatial Graph Reasoning [52.27796682972484]
空間グラフ推論に基づくマルチスペクトル画像縫合法を提案する。
同一のビュー位置から複数スケールの補完機能をノードに埋め込む。
空間的・チャネル的次元に沿った長距離コヒーレンスを導入することにより、画素関係の相補性とチャネル相互依存性は、整列したマルチビュー特徴の再構築に寄与する。
論文 参考訳(メタデータ) (2023-07-31T15:04:52Z) - Cross-View Hierarchy Network for Stereo Image Super-Resolution [14.574538513341277]
ステレオ画像スーパーレゾリューションは、ビュー間の相補的な情報を活用することにより、高解像度ステレオ画像ペアの品質を向上させることを目的としている。
ステレオ画像超解法(CVHSSR)のためのクロスビュー階層ネットワーク(Cross-View-Hierarchy Network)という新しい手法を提案する。
CVHSSRは、パラメータを減らしながら、他の最先端手法よりも最高のステレオ画像超解像性能を達成する。
論文 参考訳(メタデータ) (2023-04-13T03:11:30Z) - ViCE: Self-Supervised Visual Concept Embeddings as Contextual and Pixel
Appearance Invariant Semantic Representations [77.3590853897664]
本研究は,NLPにおける単語埋め込みの学習方法に着想を得た画像に対して,意味論的にリッチな視覚埋め込みを学習するための自己指導的手法を提案する。
論文 参考訳(メタデータ) (2021-11-24T12:27:30Z) - Bridging the Visual Gap: Wide-Range Image Blending [16.464837892640812]
広域画像ブレンドを実現するための効果的なディープラーニングモデルを提案する。
提案手法が視覚的に魅力的な結果をもたらすことを実験的に実証した。
論文 参考訳(メタデータ) (2021-03-28T15:07:45Z) - PVSNet: Pixelwise Visibility-Aware Multi-View Stereo Network [32.41293572426403]
頑健な高密度3次元再構成を実現するために,PVSNet (Pixelwise Visibility-aware multi-view Stereo Network) を提案する。
PVSNetは、近隣のさまざまなビューの可視性情報をキャプチャできる最初のディープラーニングフレームワークである。
実験によると、PVSNetは異なるデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-07-15T14:39:49Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。