論文の概要: ATDN vSLAM: An all-through Deep Learning-Based Solution for Visual
Simultaneous Localization and Mapping
- arxiv url: http://arxiv.org/abs/2206.05963v2
- Date: Tue, 14 Jun 2022 17:18:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-15 12:38:45.482931
- Title: ATDN vSLAM: An all-through Deep Learning-Based Solution for Visual
Simultaneous Localization and Mapping
- Title(参考訳): ATDN vSLAM: 視覚的同時局所化とマッピングのための全スルーディープラーニングベースのソリューション
- Authors: M\'aty\'as Sz\'ant\'o, Gy\"orgy R. Bog\'ar, L\'aszl\'o Vajta
- Abstract要約: 本論文は, これら個々のビルディングブロックの相乗的統合により, 機能的かつ効率的な全スルーディープニューラル(ATDN)vSLAMシステムを構築することができることを示す。
提案アーキテクチャは、データベース作成を支援する効率的で低遅延の自律運転(AD)や、自律走行車(AV)制御の基礎として利用できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, a novel solution is introduced for visual Simultaneous
Localization and Mapping (vSLAM) that is built up of Deep Learning components.
The proposed architecture is a highly modular framework in which each component
offers state of the art results in their respective fields of vision-based deep
learning solutions. The paper shows that with the synergic integration of these
individual building blocks, a functioning and efficient all-through deep neural
(ATDN) vSLAM system can be created. The Embedding Distance Loss function is
introduced and using it the ATDN architecture is trained. The resulting system
managed to achieve 4.4% translation and 0.0176 deg/m rotational error on a
subset of the KITTI dataset. The proposed architecture can be used for
efficient and low-latency autonomous driving (AD) aiding database creation as
well as a basis for autonomous vehicle (AV) control.
- Abstract(参考訳): 本稿では,深層学習コンポーネントで構成された視覚同時局所化マッピング(vslam)のための新しい解法を提案する。
提案されたアーキテクチャは高度にモジュール化されたフレームワークであり、各コンポーネントがビジョンベースのディープラーニングソリューションの各分野に最先端の成果を提供する。
本論文は, これら個々のビルディングブロックの相乗的統合により, 機能的かつ効率的な全スルーディープニューラル(ATDN)vSLAMシステムを構築することができることを示す。
Embedding Distance Loss関数を導入し、それを使用してATDNアーキテクチャをトレーニングする。
その結果、KITTIデータセットのサブセットで4.4%の変換と0.0176 deg/m回転誤差を達成した。
提案アーキテクチャは、データベース作成を支援する効率的で低遅延の自律運転(AD)や、自律走行車(AV)制御の基礎として利用できる。
関連論文リスト
- EM-DARTS: Hierarchical Differentiable Architecture Search for Eye Movement Recognition [54.99121380536659]
眼球運動バイオメトリックスは、高い安全性の識別により注目されている。
深層学習(DL)モデルは近年,眼球運動認識に成功している。
DLアーキテクチャはまだ人間の事前知識によって決定されている。
眼球運動認識のためのDLアーキテクチャを自動設計する階層的微分可能なアーキテクチャ探索アルゴリズムEM-DARTSを提案する。
論文 参考訳(メタデータ) (2024-09-22T13:11:08Z) - Relax DARTS: Relaxing the Constraints of Differentiable Architecture Search for Eye Movement Recognition [9.905155497581815]
眼球運動認識の分野にNASアルゴリズムを導入する。
Relax DARTSは、より効率的なネットワーク検索とトレーニングを実現するために、DARTSの改良である。
Relax DARTSは、他の多機能時間分類タスクへの適応性を示す。
論文 参考訳(メタデータ) (2024-09-18T02:37:04Z) - Serving Deep Learning Model in Relational Databases [70.53282490832189]
リレーショナルデータ上での深層学習(DL)モデルの実現は、様々な商業分野や科学分野において重要な要件となっている。
最先端のDL中心アーキテクチャは、DL計算を専用のDLフレームワークにオフロードします。
UDF中心アーキテクチャの可能性は、リレーショナルデータベース管理システム(RDBMS)内の1つ以上のテンソル計算をユーザ定義関数(UDF)にカプセル化する。
論文 参考訳(メタデータ) (2023-10-07T06:01:35Z) - Self Semi Supervised Neural Architecture Search for Semantic
Segmentation [6.488575826304023]
セグメンテーションの課題に対する自己監督と半教師付き学習に基づくニューラルアーキテクチャ検索戦略を提案する。
このアプローチは、このタスクに最適化されたニューラルネットワークモデルを構築します。
CityscapesとPASCAL VOC 2012データセットの実験では、発見されたニューラルネットワークは最先端の手作りNNモデルよりも効率的であることが示されている。
論文 参考訳(メタデータ) (2022-01-29T19:49:44Z) - A unified software/hardware scalable architecture for brain-inspired
computing based on self-organizing neural models [6.072718806755325]
我々は、Reentrant SOM(ReSOM)モデルにおいて、自己組織化マップ(SOM)とHebbian学習を関連付ける脳誘発ニューラルモデルを開発した。
この研究は、FPGAベースの専用プラットフォーム上でのシミュレーション結果とハードウェア実行の両方を通じて、モデルの分散性とスケーラブル性を実証する。
論文 参考訳(メタデータ) (2022-01-06T22:02:19Z) - An optimised deep spiking neural network architecture without gradients [7.183775638408429]
本稿では、局所シナプスおよびしきい値適応ルールを用いたエンドツーエンドのトレーニング可能なモジュラーイベント駆動ニューラルアーキテクチャを提案する。
このアーキテクチャは、既存のスパイキングニューラルネットワーク(SNN)アーキテクチャの高度に抽象化されたモデルを表している。
論文 参考訳(メタデータ) (2021-09-27T05:59:12Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z) - Neural Architecture Search For LF-MMI Trained Time Delay Neural Networks [61.76338096980383]
TDNN(State-of-the-the-art Factored Time delay Neural Network)の2種類のハイパーパラメータを自動的に学習するために、さまざまなニューラルネットワークサーチ(NAS)技術が使用されている。
DARTSメソッドはアーキテクチャ選択とLF-MMI(格子のないMMI)TDNNトレーニングを統合する。
300時間のSwitchboardコーパスで行われた実験では、自動構成システムはベースラインLF-MMI TDNNシステムより一貫して優れていることが示唆された。
論文 参考訳(メタデータ) (2020-07-17T08:32:11Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z) - When Residual Learning Meets Dense Aggregation: Rethinking the
Aggregation of Deep Neural Networks [57.0502745301132]
我々は,グローバルな残差学習と局所的なマイクロセンスアグリゲーションを備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。
我々のマイクロセンスブロックはニューラルアーキテクチャ検索に基づくモデルと統合して性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-19T08:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。