論文の概要: One Point is All You Need: Directional Attention Point for Feature
Learning
- arxiv url: http://arxiv.org/abs/2012.06257v2
- Date: Mon, 14 Dec 2020 06:47:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 02:59:53.516299
- Title: One Point is All You Need: Directional Attention Point for Feature
Learning
- Title(参考訳): 必要なことの1つ:機能学習のための方向性注意ポイント
- Authors: Liqiang Lin, Pengdi Huang, Chi-Wing Fu, Kai Xu, Hao Zhang, Hui Huang
- Abstract要約: ポイントクラウド分類やセグメンテーションなどのタスクのポイント機能強化を学習するための新しい注意ベースのメカニズムを提示する。
我々は,最先端のクラウド分類とセグメンテーションネットワークに注目機構を組み込むことができることを示す。
- 参考スコア(独自算出の注目度): 51.44837108615402
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a novel attention-based mechanism for learning enhanced point
features for tasks such as point cloud classification and segmentation. Our key
message is that if the right attention point is selected, then "one point is
all you need" -- not a sequence as in a recurrent model and not a pre-selected
set as in all prior works. Also, where the attention point is should be
learned, from data and specific to the task at hand. Our mechanism is
characterized by a new and simple convolution, which combines the feature at an
input point with the feature at its associated attention point. We call such a
point a directional attention point (DAP), since it is found by adding to the
original point an offset vector that is learned by maximizing the task
performance in training. We show that our attention mechanism can be easily
incorporated into state-of-the-art point cloud classification and segmentation
networks. Extensive experiments on common benchmarks such as ModelNet40,
ShapeNetPart, and S3DIS demonstrate that our DAP-enabled networks consistently
outperform the respective original networks, as well as all other competitive
alternatives, including those employing pre-selected sets of attention points.
- Abstract(参考訳): 本稿では,ポイントクラウド分類やセグメンテーションといったタスクの強化点特徴を学習するための,注目に基づく新しいメカニズムを提案する。
私たちの重要なメッセージは、もし正しい注意ポイントが選択されたら、"1ポイントは必要なすべて" -- 繰り返しモデルのようなシーケンスではなく、以前のすべての作業のように事前に選択されたセットではない、ということです。
また、注意点をデータから学習し、目の前のタスクに固有のものにする必要がある。
我々のメカニズムは、入力点における特徴と関連する注意点における特徴を組み合わせた、新しくシンプルな畳み込みによって特徴づけられる。
このような点を指向性注意点(DAP)と呼び、トレーニングにおけるタスクパフォーマンスを最大化して学習したオフセットベクトルを元の点に追加することによって得られる。
我々は,最先端のクラウド分類とセグメンテーションネットワークに注目機構を組み込むことができることを示す。
ModelNet40、ShapeNetPart、S3DISといった一般的なベンチマークに関する大規模な実験では、私たちのDAP対応ネットワークは、選択済みの注意点のセットを含む他の競合する選択肢と同様に、それぞれの元のネットワークよりも一貫して優れています。
関連論文リスト
- Point Cloud Understanding via Attention-Driven Contrastive Learning [64.65145700121442]
トランスフォーマーベースのモデルは、自己認識機構を活用することにより、先進的なポイントクラウド理解を持つ。
PointACLは、これらの制限に対処するために設計された、注意駆動のコントラスト学習フレームワークである。
本手法では, 注意駆動型動的マスキング手法を用いて, モデルが非集中領域に集中するように誘導する。
論文 参考訳(メタデータ) (2024-11-22T05:41:00Z) - DHGCN: Dynamic Hop Graph Convolution Network for Self-Supervised Point
Cloud Learning [23.048005152646592]
本稿では,動的ホップグラフ畳み込みネットワーク(DHGCN)を提案する。
そこで我々は, 自己監督型部分レベルホップ距離再構築タスクを考案し, トレーニングの容易さに応じて, 新たな損失関数を設計する。
提案したDHGCNは、ポイントベースのバックボーンネットワークと互換性のあるプラグイン・アンド・プレイモジュールである。
論文 参考訳(メタデータ) (2024-01-05T02:54:23Z) - Point Cloud Pre-training with Diffusion Models [62.12279263217138]
我々は、ポイントクラウド拡散事前学習(PointDif)と呼ばれる新しい事前学習手法を提案する。
PointDifは、分類、セグメンテーション、検出など、さまざまな下流タスクのために、さまざまな現実世界のデータセット間で大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-25T08:10:05Z) - ResMatch: Residual Attention Learning for Local Feature Matching [51.07496081296863]
従来の特徴マッチングとフィルタリングの観点から、クロスアテンションとセルフアテンションを再考する。
我々は,記述者と相対的な位置の類似性を,クロスアテンションスコアとセルフアテンションスコアに注入する。
我々は、記述子と相対的な位置の類似性に応じて隣人内および隣人間を採掘する。
論文 参考訳(メタデータ) (2023-07-11T11:32:12Z) - D-Net: Learning for Distinctive Point Clouds by Self-Attentive Point
Searching and Learnable Feature Fusion [48.57170130169045]
我々は,自己注意点探索と学習可能な特徴融合に基づいて,特徴点雲を学習するためのD-Netを提案する。
各特徴点集合に対してコンパクトな特徴表現を生成するために,その特徴を抽出するために,積み重ねられた自己ゲート畳み込みを提案する。
その結果、学習した点雲の区別分布は、同じクラスのオブジェクトと高度に一致し、他のクラスのオブジェクトと異なることが明らかとなった。
論文 参考訳(メタデータ) (2023-05-10T02:19:00Z) - Towards Class-agnostic Tracking Using Feature Decorrelation in Point
Clouds [9.321928362927965]
点雲における単一物体追跡は、LiDARセンサーが3次元視界に存在するため、ますます注目を集めている。
ディープニューラルネットワークに基づく既存の方法は、主に異なるカテゴリの異なるモデルをトレーニングすることに焦点を当てている。
この作業では、LiDARポイントクラウド、クラスに依存しないトラッキングにおいて、私たちの思考をより難しいタスクにします。
論文 参考訳(メタデータ) (2022-02-28T03:33:03Z) - FatNet: A Feature-attentive Network for 3D Point Cloud Processing [1.502579291513768]
本稿では,グローバルポイントベースの機能とエッジベースの機能を組み合わせた,新たな機能指向ニューラルネットワーク層であるfat layerを提案する。
当社のアーキテクチャは,ModelNet40データセットで示すように,ポイントクラウド分類のタスクにおける最先端の成果を達成する。
論文 参考訳(メタデータ) (2021-04-07T23:13:56Z) - Coordinate Attention for Efficient Mobile Network Design [96.40415345942186]
チャネルの注目に位置情報を埋め込むことにより,モバイルネットワークに対する新たな注意メカニズムを提案する。
2次元グローバルプーリングにより特徴テンソルを単一特徴ベクトルに変換するチャネルアテンションとは異なり、座標アテンションはチャネルアテンションを2つの1次元特徴符号化プロセスに分解する。
座標の注意はImageNetの分類に有用であり、オブジェクト検出やセマンティックセグメンテーションといった下流タスクではよりうまく振る舞う。
論文 参考訳(メタデータ) (2021-03-04T09:18:02Z) - SK-Net: Deep Learning on Point Cloud via End-to-end Discovery of Spatial
Keypoints [7.223394571022494]
本稿では,空間キーポイントの推論と点雲の特徴表現の学習を協調的に最適化する,エンドツーエンドのフレームワークであるSK-Netを提案する。
提案手法は,ポイントクラウドタスクにおける最先端手法に匹敵する性能を示した。
論文 参考訳(メタデータ) (2020-03-31T08:15:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。