論文の概要: Matching with AffNet based rectifications
- arxiv url: http://arxiv.org/abs/2207.14660v1
- Date: Fri, 29 Jul 2022 13:06:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-01 12:54:26.826785
- Title: Matching with AffNet based rectifications
- Title(参考訳): AffNetベースの修正とマッチング
- Authors: V\'aclav V\'avra, Dmytro Mishkin, Ji\v{r}\'i Matas
- Abstract要約: 本稿では,ビュー合成による視点変化による2視点マッチングの問題点について考察する。
ビュー合成オーバーヘッドを最小限に抑える2つの新しい手法を提案する。
DenseAffNetは最先端のシステムよりも高速で、一般的なシーンではより正確である。
DepthAffNetは、大きな飛行機を含むシーンの最先端と同等である。
- 参考スコア(独自算出の注目度): 3.631024220680066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of two-view matching under significant viewpoint
changes with view synthesis. We propose two novel methods, minimizing the view
synthesis overhead. The first one, named DenseAffNet, uses dense affine shapes
estimates from AffNet, which allows it to partition the image, rectifying each
partition with just a single affine map. The second one, named DepthAffNet,
combines information from depth maps and affine shapes estimates to produce
different sets of rectifying affine maps for different image partitions.
DenseAffNet is faster than the state-of-the-art and more accurate on generic
scenes. DepthAffNet is on par with the state of the art on scenes containing
large planes. The evaluation is performed on 3 public datasets - EVD Dataset,
Strong ViewPoint Changes Dataset and IMC Phototourism Dataset.
- Abstract(参考訳): 本研究では,視点合成による視点変化を考慮した2視点マッチングの問題を考える。
ビュー合成オーバーヘッドを最小限に抑える2つの新しい手法を提案する。
ひとつは denseaffnet という名前で,afnet から推定される密接なアフィン形状を使用してイメージを分割し,ひとつのアフィンマップで各パーティションを整列する。
2つめはDepthAffNetと呼ばれ、深度マップとアフィン形状の推定情報を組み合わせて、異なる画像分割のためのアフィンマップの修正セットを生成する。
DenseAffNetは最先端よりも高速で、一般的なシーンではより正確である。
DepthAffNetは、大きな飛行機を含むシーンにおけるアートの状態と同等である。
評価は、EVDデータセット、Strong ViewPoint Change Dataset、IMC Phototourism Datasetの3つの公開データセットで実施される。
関連論文リスト
- Open-Vocabulary Octree-Graph for 3D Scene Understanding [54.11828083068082]
Octree-Graphはオープンな3Dシーン理解のための新しいシーン表現である。
セマンティクスを記憶し、その形状に応じてオブジェクトの占有度を調節するアダプティブ・オクツリー構造を開発する。
論文 参考訳(メタデータ) (2024-11-25T10:14:10Z) - SceneGraphLoc: Cross-Modal Coarse Visual Localization on 3D Scene Graphs [81.2396059480232]
SceneGraphLocはシーングラフ内の各ノード(つまりオブジェクトインスタンスを表す)に対する固定サイズの埋め込みを学習する。
画像を利用する場合、SceneGraphLocは、大規模な画像データベースに依存する最先端技術に近いパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-03-30T20:25:16Z) - Map-free Visual Relocalization: Metric Pose Relative to a Single Image [21.28513803531557]
本研究では,シーンの1枚の写真のみを用いて,地図のない再ローカライズを提案し,即時でスケールした再ローカライズを実現する。
既存のデータセットは、大きなシーンや限られた変数に焦点を当てているため、マップのない再ローカライゼーションのベンチマークには適していない。
我々は,世界規模で収集された彫刻,壁画,噴水など,655箇所の小さな関心事のデータセットを構築した。
論文 参考訳(メタデータ) (2022-10-11T14:49:49Z) - FreDSNet: Joint Monocular Depth and Semantic Segmentation with Fast
Fourier Convolutions [5.2178708158547025]
FreDSNetは、単一のパノラマから屋内環境のセマンティック3D理解を得るディープラーニングソリューションである。
頻繁な領域における畳み込みを利用して、各畳み込み層においてより広い受容場を得る。
FreDSNetは単一パノラマ画像からの単眼深度推定とセマンティックセグメンテーションを共同で提供する最初のネットワークである。
論文 参考訳(メタデータ) (2022-10-04T13:18:15Z) - DevNet: Self-supervised Monocular Depth Learning via Density Volume
Construction [51.96971077984869]
単眼画像からの自己教師付き深度学習は、通常、時間的に隣接する画像フレーム間の2Dピクセル単位の光度関係に依存する。
本研究は, 自己教師型単眼深度学習フレームワークであるDevNetを提案する。
論文 参考訳(メタデータ) (2022-09-14T00:08:44Z) - Neural 3D Scene Reconstruction with the Manhattan-world Assumption [58.90559966227361]
本稿では,多視点画像から3次元屋内シーンを再構築する課題について述べる。
平面的制約は、最近の暗黙の神経表現に基づく再構成手法に便利に組み込むことができる。
提案手法は, 従来の手法よりも3次元再構成品質に優れていた。
論文 参考訳(メタデータ) (2022-05-05T17:59:55Z) - Long-term Visual Map Sparsification with Heterogeneous GNN [47.12309045366042]
本稿では,環境変化を克服し,将来のローカライゼーションに有用な点を選択することで,地図サイズを同時に削減することを目的とする。
グラフニューラルネットワーク(GNN)の最近の進歩に触発されて,SfMマップを異種グラフとしてモデル化し,GNNを用いて3次元点重要度を推定する最初の研究を提案する。
2つの新しい監督手法が提案されている: 1) トレーニングクエリに基づく将来のローカライゼーションに有用なポイントを選択するためのデータ適合用語、2) スパースポイントをフルマップで選択するためのK-Cover用語。
論文 参考訳(メタデータ) (2022-03-29T01:46:12Z) - Scene Retrieval for Contextual Visual Mapping [22.37892767050086]
ビジュアルナビゲーションは、視覚的マップとしても知られる場所画像の参照データベースに対してクエリプレース画像をローカライズする。
シーンクラスは、環境とタスクのコンテキストによって異なります。
歩行者と駅を含む4つの異なるシーンクラスが、北ランドとセントルシアの各データセットで識別されている。
シーン検索は、シーンクラスの参照画像に単一のクエリイメージを関連付けることで、テスト時に定義されたシーンの分類に画像検索を拡張する。
論文 参考訳(メタデータ) (2021-02-25T08:23:19Z) - Learning Geometry-Disentangled Representation for Complementary
Understanding of 3D Object Point Cloud [50.56461318879761]
3次元画像処理のためのGDANet(Geometry-Disentangled Attention Network)を提案する。
GDANetは、点雲を3Dオブジェクトの輪郭と平らな部分に切り離し、それぞれ鋭い変化成分と穏やかな変化成分で表される。
3Dオブジェクトの分類とセグメンテーションベンチマークの実験は、GDANetがより少ないパラメータで最先端の処理を実現していることを示している。
論文 参考訳(メタデータ) (2020-12-20T13:35:00Z) - Label Decoupling Framework for Salient Object Detection [157.96262922808245]
近年の手法は, 畳み込みネットワーク(FCN)からの多層的特徴の集約と, エッジ情報の導入に重点を置いている。
ラベルデカップリング手順と機能相互作用ネットワーク(FIN)からなるラベルデカップリングフレームワーク(LDF)を提案する。
6つのベンチマークデータセットの実験では、LDFはさまざまな評価指標における最先端のアプローチよりも優れていることが示されている。
論文 参考訳(メタデータ) (2020-08-25T14:23:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。