論文の概要: Semi-supervised Vector-Quantization in Visual SLAM using HGCN
- arxiv url: http://arxiv.org/abs/2207.06738v1
- Date: Thu, 14 Jul 2022 08:44:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-15 14:58:42.670552
- Title: Semi-supervised Vector-Quantization in Visual SLAM using HGCN
- Title(参考訳): HGCNを用いた視SLAMの半教師付きベクトル量子化
- Authors: Amir Zarringhalam (1), Saeed Shiry Ghidary (2), Ali Mohades Khorasani
(3) ((1),(2) and (3), Amirkabir University of Technology)
- Abstract要約: HGCN-FABMAPとHGCN-BoWという2つの半教師付きループクロージャ検出技術が導入された。
アートローカライゼーションSLAMアルゴリズムORB-SLAMの現在の状態への拡張を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, two semi-supervised appearance based loop closure detection
technique, HGCN-FABMAP and HGCN-BoW are introduced. Furthermore an extension to
the current state of the art localization SLAM algorithm, ORB-SLAM, is
presented. The proposed HGCN-FABMAP method is implemented in an off-line manner
incorporating Bayesian probabilistic schema for loop detection decision making.
Specifically, we let a Hyperbolic Graph Convolutional Neural Network (HGCN) to
operate over the SURF features graph space, and perform vector quantization
part of the SLAM procedure. This part previously was performed in an
unsupervised manner using algorithms like HKmeans, kmeans++,..etc. The main
Advantage of using HGCN, is that it scales linearly in number of graph edges.
Experimental results shows that HGCN-FABMAP algorithm needs far more cluster
centroids than HGCN-ORB, otherwise it fails to detect loop closures. Therefore
we consider HGCN-ORB to be more efficient in terms of memory consumption, also
we conclude the superiority of HGCN-BoW and HGCN-FABMAP with respect to other
algorithms.
- Abstract(参考訳): 本稿では,HGCN-FABMAPとHGCN-BoWという2つの半教師付きループ閉鎖検出手法を紹介する。
さらに、アートローカライゼーションSLAMアルゴリズムORB-SLAMの現在の状態の拡張を示す。
HGCN-FABMAP法は,ループ検出決定のためのベイズ確率スキーマを組み込んだオフライン方式で実装されている。
具体的には、ハイパーボリックグラフ畳み込みニューラルネットワーク(HGCN)をSURF特徴グラフ空間上で動作させ、SLAMプロシージャのベクトル量子化部分を実行する。
この部分は以前、hkmeans、kmeans++などのアルゴリズムを使用して教師なしの方法で実行されていた。
通称etc。
HGCNを使用する主な利点は、グラフエッジの数で線形にスケールすることである。
実験の結果、HGCN-FABMAPアルゴリズムはHGCN-ORBよりもはるかに多くのクラスタセントロイドを必要とすることがわかった。
したがって、HGCN-ORBはメモリ消費の観点からより効率的であると考え、HGCN-BoWとHGCN-FABMAPの他のアルゴリズムに対する優位性を結論づける。
関連論文リスト
- GCN-ABFT: Low-Cost Online Error Checking for Graph Convolutional Networks [0.0]
グラフ畳み込みネットワーク(GCN)は、グラフ構造化データのための機械学習アプリケーションの構築に人気がある。
我々はGCNアクセラレーターにおける重要なアーキテクチャ上の課題に対処する:GCN計算におけるランダムなハードウェア故障に起因するエラーを最小コストで検出する方法。
論文 参考訳(メタデータ) (2024-12-24T16:27:19Z) - Binary Graph Convolutional Network with Capacity Exploration [58.99478502486377]
ネットワークパラメータと入力ノード属性の両方を二項化するバイナリグラフ畳み込みネットワーク(Bi-GCN)を提案する。
我々のBi-GCNは、ネットワークパラメータと入力データの両方で平均31倍のメモリ消費を削減でき、推論速度を平均51倍に加速できる。
論文 参考訳(メタデータ) (2022-10-24T12:05:17Z) - Towards Efficient Graph Convolutional Networks for Point Cloud Handling [181.59146413326056]
ポイントクラウド上で学習するためのグラフ畳み込みネットワーク(GCN)の計算効率の向上を目指します。
一連の実験により、最適化されたネットワークは計算複雑性を減らし、メモリ消費を減らし、推論速度を加速した。
論文 参考訳(メタデータ) (2021-04-12T17:59:16Z) - Bi-GCN: Binary Graph Convolutional Network [57.733849700089955]
ネットワークパラメータと入力ノードの特徴を二項化するバイナリグラフ畳み込みネットワーク(Bi-GCN)を提案する。
我々のBi-GCNは、ネットワークパラメータと入力データの両方で平均30倍のメモリ消費を削減でき、推論速度を平均47倍に加速できる。
論文 参考訳(メタデータ) (2020-10-15T07:26:23Z) - Revisiting Graph Convolutional Network on Semi-Supervised Node
Classification from an Optimization Perspective [10.178145000390671]
グラフ畳み込みネットワーク(GCN)は、様々なグラフベースのタスクにおいて有望な性能を達成した。
しかし、より多くのレイヤを積み重ねる際には、過剰なスムーシングに悩まされる。
本稿では,この観測を定量的に研究し,より深いGCNに対する新たな洞察を開拓する。
論文 参考訳(メタデータ) (2020-09-24T03:36:43Z) - DeeperGCN: All You Need to Train Deeper GCNs [66.64739331859226]
グラフ畳み込みネットワーク(GCN)はグラフ上での表現学習の力で注目されている。
非常に深いレイヤを積み重ねることのできる畳み込みニューラルネットワーク(CNN)とは異なり、GCNはより深く進むと、勾配の消失、過度なスムース化、過度に適合する問題に悩まされる。
本稿では,非常に深いGCNを正常かつ確実に訓練できるDeeperGCNを提案する。
論文 参考訳(メタデータ) (2020-06-13T23:00:22Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z) - Scattering GCN: Overcoming Oversmoothness in Graph Convolutional
Networks [0.0]
グラフ畳み込みネットワーク(GCN)は,構造認識の特徴を抽出することによって,グラフデータ処理において有望な結果を示した。
本稿では、幾何学的散乱変換と残差畳み込みによる従来のGCNの増大を提案する。
前者はグラフ信号の帯域通過フィルタリングが可能であり、GCNでしばしば発生する過度な過度な処理を緩和する。
論文 参考訳(メタデータ) (2020-03-18T18:03:08Z) - Infinitely Wide Graph Convolutional Networks: Semi-supervised Learning
via Gaussian Processes [144.6048446370369]
グラフ畳み込みニューラルネットワーク(GCN)は近年,グラフに基づく半教師付き半教師付き分類において有望な結果を示した。
グラフに基づく半教師付き学習のためのGCN(GPGC)を用いたGP回帰モデルを提案する。
GPGCを評価するための広範囲な実験を行い、他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-26T10:02:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。