論文の概要: Local Feature Extraction from Salient Regions by Feature Map
Transformation
- arxiv url: http://arxiv.org/abs/2301.10413v1
- Date: Wed, 25 Jan 2023 05:31:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-26 15:56:25.429728
- Title: Local Feature Extraction from Salient Regions by Feature Map
Transformation
- Title(参考訳): 特徴写像変換によるサリエント領域からの局所特徴抽出
- Authors: Yerim Jung, Nur Suriza Syazwany Binti Ahmad Nizam, Sang-Chul Lee
- Abstract要約: 光や視点によらず,局所的な特徴を強く抽出し,記述する枠組みを提案する。
このフレームワークは照明の変動を抑制し、構造情報を光からのノイズを無視するように促す。
提案モデルでは,正常な領域から特徴点を抽出し,不整合を減少させる。
- 参考スコア(独自算出の注目度): 0.7734726150561086
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Local feature matching is essential for many applications, such as
localization and 3D reconstruction. However, it is challenging to match feature
points accurately in various camera viewpoints and illumination conditions. In
this paper, we propose a framework that robustly extracts and describes salient
local features regardless of changing light and viewpoints. The framework
suppresses illumination variations and encourages structural information to
ignore the noise from light and to focus on edges. We classify the elements in
the feature covariance matrix, an implicit feature map information, into two
components. Our model extracts feature points from salient regions leading to
reduced incorrect matches. In our experiments, the proposed method achieved
higher accuracy than the state-of-the-art methods in the public dataset, such
as HPatches, Aachen Day-Night, and ETH, which especially show highly variant
viewpoints and illumination.
- Abstract(参考訳): 局所的な特徴マッチングは、ローカライゼーションや3d再構成など、多くのアプリケーションで不可欠である。
しかし、様々なカメラ視点や照明条件で特徴点を正確に一致させることは困難である。
本稿では,光や視点の変化にかかわらず,局所的な特徴を強く抽出し,記述する枠組みを提案する。
このフレームワークは照明の変動を抑制し、構造情報を光からのノイズを無視し、エッジに集中するように促す。
特徴共分散行列(暗黙的特徴マップ情報)の要素を2つの構成要素に分類する。
提案モデルでは,不一致の低減につながるサルエント領域から特徴点を抽出する。
提案手法は,HPatches,Aachen Day-Night,ETHなどの公開データセットの最先端手法よりも高精度で,特に高度に変動する視点と照明を示す。
関連論文リスト
- Real-Time Simultaneous Localization and Mapping with LiDAR intensity [9.374695605941627]
実時間LiDAR強調画像を用いた同時位置推定とマッピング手法を提案する。
提案手法は高精度でリアルタイムに動作可能であり,照度変化,低テクスチャ,非構造化環境でも有効である。
論文 参考訳(メタデータ) (2023-01-23T03:59:48Z) - MeshLoc: Mesh-Based Visual Localization [54.731309449883284]
シーン表現を構築するために,データベースイメージ間のマッチング機能を必要としない,高密度な3Dメッシュに基づく,より柔軟な代替手段を模索する。
驚くべきことに、ニューラルネットワークのレンダリングステージなしで、これらのメッシュのレンダリングの特徴を抽出するときに、競合的な結果が得られる。
以上の結果から,高密度な3次元モデルに基づく表現は,既存の表現の代替として有望なものであり,今後の研究にとって興味深い,挑戦的な方向性を示すものと考えられる。
論文 参考訳(メタデータ) (2022-07-21T21:21:10Z) - ImpDet: Exploring Implicit Fields for 3D Object Detection [74.63774221984725]
我々は、境界ボックス回帰を暗黙の関数として見る新しい視点を導入する。
これは、Implicit DetectionまたはImpDetと呼ばれる提案されたフレームワークにつながります。
我々のImpDetは、異なる局所的な3次元空間の点に特定の値を割り当て、高品質な境界を生成することができる。
論文 参考訳(メタデータ) (2022-03-31T17:52:12Z) - Location-Free Camouflage Generation Network [82.74353843283407]
カモフラージュ(Camouflage)は一般的な視覚現象で、前景の物体を背景のイメージに隠すことで、人間の目からは一時的に見えなくなる。
本稿では,前景と背景像の高次特徴を融合させ,一つの推論によって結果を生成する,ロケーションフリーなカモフラージュ生成ネットワーク(LCG-Net)を提案する。
実験により,本手法は単一外観領域における最先端技術と同程度に良好であり,完全に見えない可能性が低いが,多外観領域における最先端技術の品質をはるかに上回っていることが示された。
論文 参考訳(メタデータ) (2022-03-18T10:33:40Z) - Object-Guided Day-Night Visual Localization in Urban Scenes [2.4493299476776778]
提案手法はまず意味オブジェクトを検出し,画像間の対応性を確立する。
標準的な都市局所化データセットの実験により,OGuLはSIFTと同様の簡易な局所的特徴を持つ局所化結果を大幅に改善することが示された。
論文 参考訳(メタデータ) (2022-02-09T13:21:30Z) - Each Part Matters: Local Patterns Facilitate Cross-view Geo-localization [54.00111565818903]
クロスビューなジオローカライゼーションは、異なるプラットフォームから同じ地理的ターゲットの画像を見つけることである。
既存の手法は通常、画像センター内の地理的ターゲットの微細な特徴をマイニングすることに集中している。
我々は、文脈情報を活用するために、ローカルパターンネットワーク(LPN)と呼ばれるシンプルで効果的なディープニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-08-26T16:06:11Z) - Single-Image Depth Prediction Makes Feature Matching Easier [49.13237284669722]
単一RGB画像から推定されるCNNに基づく深度は,その欠点にもかかわらず非常に有用であることを示す。
これにより、画像のプリワープや視点歪みの修正が可能になり、SIFTとBRISKの機能を大幅に強化できます。
論文 参考訳(メタデータ) (2020-08-21T14:25:36Z) - ASLFeat: Learning Local Features of Accurate Shape and Localization [42.70030492742363]
ASLFeatを3つの軽量かつ効果的に修正し、上記の問題を緩和する。
まず、変形可能な畳み込みネットワークを用いて局所変換を密に推定、適用する。
第2に,空間分解能と低レベル細部を復元する特徴階層を利用して,正確なキーポイント位置推定を行う。
論文 参考訳(メタデータ) (2020-03-23T04:03:03Z) - Multi-View Optimization of Local Feature Geometry [70.18863787469805]
本研究では,複数視点からの局所像の特徴の幾何を,未知のシーンやカメラの幾何を伴わずに精査する問題に対処する。
提案手法は,従来の特徴抽出とマッチングのパラダイムを自然に補完する。
本手法は,手作りと学習の両方の局所的特徴に対して,三角測量とカメラのローカライゼーション性能を常に向上することを示す。
論文 参考訳(メタデータ) (2020-03-18T17:22:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。