論文の概要: Learning Geodesic-Aware Local Features from RGB-D Images
- arxiv url: http://arxiv.org/abs/2203.12016v1
- Date: Tue, 22 Mar 2022 19:52:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 14:53:04.382841
- Title: Learning Geodesic-Aware Local Features from RGB-D Images
- Title(参考訳): rgb-d画像からの測地線対応局所特徴の学習
- Authors: Guilherme Potje, Renato Martins, Felipe Cadar, Erickson R. Nascimento
- Abstract要約: 非剛性変形に不変なRGB-D画像から記述子を計算するための新しい手法を提案する。
提案手法は,非歪な局所像パッチ上で特徴表現を学習する鍵となる考え方に基づいている。
実際に利用可能なRGB-Dデータベンチマークを使用したさまざまな実験では、最先端の手作りおよび学習ベースのイメージとRGB-D記述子を一貫して上回っている。
- 参考スコア(独自算出の注目度): 8.115075181267109
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most of the existing handcrafted and learning-based local descriptors are
still at best approximately invariant to affine image transformations, often
disregarding deformable surfaces. In this paper, we take one step further by
proposing a new approach to compute descriptors from RGB-D images (where RGB
refers to the pixel color brightness and D stands for depth information) that
are invariant to isometric non-rigid deformations, as well as to scale changes
and rotation. Our proposed description strategies are grounded on the key idea
of learning feature representations on undistorted local image patches using
surface geodesics. We design two complementary local descriptors strategies to
compute geodesic-aware features efficiently: one efficient binary descriptor
based on handcrafted binary tests (named GeoBit), and one learning-based
descriptor (GeoPatch) with convolutional neural networks (CNNs) to compute
features. In different experiments using real and publicly available RGB-D data
benchmarks, they consistently outperforms state-of-the-art handcrafted and
learning-based image and RGB-D descriptors in matching scores, as well as in
object retrieval and non-rigid surface tracking experiments, with comparable
processing times. We also provide to the community a new dataset with accurate
matching annotations of RGB-D images of different objects (shirts, cloths,
paintings, bags), subjected to strong non-rigid deformations, for evaluation
benchmark of deformable surface correspondence algorithms.
- Abstract(参考訳): 既存の手書きおよび学習ベースのローカル記述子のほとんどは、アフィンのイメージ変換とほとんど変わらず、しばしば変形可能な表面を無視している。
本稿では,等尺性非剛性変形に不変なrgb-d画像(rgbは画素色輝度,dは奥行き情報を表す)から記述子を計算するための新しい手法を提案する。
提案手法は,表面測地線を用いた局所画像パッチにおける特徴表現の学習という重要な概念に基づいている。
ジオデシックな特徴を効率的に計算するための2つの補完的な局所記述子戦略を設計する。手作りのバイナリテストに基づく効率的なバイナリ記述子(GeoBit)と、畳み込みニューラルネットワーク(CNN)を用いた学習ベースの記述子(GeoPatch)である。
実際のRGB-Dデータベンチマークと一般公開されたRGB-Dデータベンチマークの異なる実験では、同等の処理時間でオブジェクト検索や非厳密な表面追跡実験と同様に、最先端の手技と学習ベースのイメージとRGB-Dディスクリプタを一貫して上回ります。
また,変形可能な表面対応アルゴリズムの評価ベンチマークとして,強い非剛性変形を受ける異なる物体(シャツ,布,絵画,バッグ)のrgb-d画像の正確なアノテーションをコミュニティに提供する。
関連論文リスト
- Diffusion-based RGB-D Semantic Segmentation with Deformable Attention Transformer [10.982521876026281]
本稿では,RGB-Dセマンティックセグメンテーション問題に対処する拡散型フレームワークを提案する。
本研究では,デフォルマブルアテンション変換器をエンコーダとして利用し,奥行き画像から特徴を抽出することにより,デフォルマブルアテンション変換器の特性を効果的に把握できることを実証する。
論文 参考訳(メタデータ) (2024-09-23T15:23:01Z) - MatchU: Matching Unseen Objects for 6D Pose Estimation from RGB-D Images [57.71600854525037]
RGB-D画像からの6次元ポーズ推定のためのFuse-Describe-Match戦略を提案する。
MatchUは、2Dテクスチャと6Dポーズ予測のための3D幾何学的手がかりを融合する汎用的なアプローチである。
論文 参考訳(メタデータ) (2024-03-03T14:01:03Z) - Clothes Grasping and Unfolding Based on RGB-D Semantic Segmentation [21.950751953721817]
セグメンテーションのための双方向フラクタルクロスフュージョンネットワーク(BiFCNet)を提案する。
我々は、Fractal Cross FusionモジュールがRGBと深度データを融合するネットワークへの入力として、リッチな色特徴を持つRGB画像を使用する。
実データ収集のコストを削減するため,敵対的戦略に基づくデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2023-05-05T03:21:55Z) - Depth-Adapted CNNs for RGB-D Semantic Segmentation [2.341385717236931]
我々は、RGB畳み込みニューラルネットワーク(CNN)に深度情報を組み込む新しい枠組みを提案する。
具体的には、Z-ACNは2次元奥行き適応オフセットを生成し、RGB画像の特徴抽出を誘導する低レベル特徴に完全に制約される。
生成されたオフセットでは、基本的なCNN演算子を置き換えるために、2つの直感的で効果的な操作を導入する。
論文 参考訳(メタデータ) (2022-06-08T14:59:40Z) - Boosting RGB-D Saliency Detection by Leveraging Unlabeled RGB Images [89.81919625224103]
RGB-D Salient Object Detection (SOD) のための深層モデルの訓練は、しばしば多数のラベル付きRGB-D画像を必要とする。
本稿では、ラベルのないRGB画像を活用するために、Dual-Semi RGB-D Salient Object Detection Network (DS-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:02:27Z) - Extracting Deformation-Aware Local Features by Learning to Deform [3.364554138758565]
非剛性変形に対して頑健な静止画像から特徴量を計算するための新しい手法を提案する。
我々は、シミュレーション環境でオブジェクトに非剛性変形を適用することにより、モデルアーキテクチャをエンドツーエンドにトレーニングする。
実験により, この手法は, 最新の手工芸画像, 学習ベース画像, およびRGB-Dディスクリプタを異なるデータセットで比較した。
論文 参考訳(メタデータ) (2021-11-20T15:46:33Z) - Semantic-embedded Unsupervised Spectral Reconstruction from Single RGB
Images in the Wild [48.44194221801609]
この課題に対処するため、我々は、新しい軽量でエンドツーエンドの学習ベースのフレームワークを提案する。
我々は、効率的なカメラスペクトル応答関数推定により、検索されたHS画像から入力されたRGB画像と再投影されたRGB画像の差を徐々に広げる。
提案手法は最先端の教師なし手法よりも優れており,いくつかの設定下では最新の教師付き手法よりも優れている。
論文 参考訳(メタデータ) (2021-08-15T05:19:44Z) - Refer-it-in-RGBD: A Bottom-up Approach for 3D Visual Grounding in RGBD
Images [69.5662419067878]
RGBD画像における接地参照表現は新たな分野である。
本稿では,参照する物体が閉塞により部分的にスキャンされる場合が多い単視点rgbd画像における3次元視覚グランド化の新たな課題を提案する。
提案手法はまず,RGBD画像内の関連領域をローカライズするヒートマップを生成するために,下層の言語と視覚的特徴を融合させる。
次に、ヒートマップに基づく適応的特徴学習を行い、他のビジオ言語融合とオブジェクトレベルのマッチングを行い、最後に参照したオブジェクトを接地する。
論文 参考訳(メタデータ) (2021-03-14T11:18:50Z) - Category-Level 3D Non-Rigid Registration from Single-View RGB Images [28.874008960264202]
CNNを用いたRGB画像からの3次元非剛性登録問題の解法を提案する。
我々の目的は、与えられた3次元標準模型を1枚のRGB画像で観察された新しいインスタンスに整合する変形場を見つけることである。
論文 参考訳(メタデータ) (2020-08-17T10:35:19Z) - Bi-directional Cross-Modality Feature Propagation with
Separation-and-Aggregation Gate for RGB-D Semantic Segmentation [59.94819184452694]
深度情報はRGBD画像のセマンティックセグメンテーションにおいて有用であることが証明されている。
既存のほとんどの研究は、深度測定がRGBピクセルと正確で整合していると仮定し、問題をモーダルな特徴融合としてモデル化している。
本稿では,RGB特徴量応答を効果的に再検討するだけでなく,複数の段階を通して正確な深度情報を抽出し,代わりに2つの補正表現を集約する,統一的で効率的なクロスモダリティガイドを提案する。
論文 参考訳(メタデータ) (2020-07-17T18:35:24Z) - UC-Net: Uncertainty Inspired RGB-D Saliency Detection via Conditional
Variational Autoencoders [81.5490760424213]
データラベリングプロセスから学習することで、RGB-Dサリエンシ検出に不確実性を利用するための第1のフレームワーク(UCNet)を提案する。
そこで本研究では,サリエンシデータラベリングにヒントを得て,確率的RGB-Dサリエンシ検出ネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-13T04:12:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。