論文の概要: DeepSSN: a deep convolutional neural network to assess spatial scene
similarity
- arxiv url: http://arxiv.org/abs/2202.04755v1
- Date: Mon, 7 Feb 2022 23:53:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-11 14:44:31.469542
- Title: DeepSSN: a deep convolutional neural network to assess spatial scene
similarity
- Title(参考訳): DeepSSN:空間的シーンの類似性を評価するディープ畳み込みニューラルネットワーク
- Authors: Danhuai Guo, Shiyin Ge, Shu Zhang, Song Gao, Ran Tao, Yangang Wang
- Abstract要約: 本稿では,深部空間シーンネットワーク(Deep Space Scene Network,DeepSSN)を提案する。
提案したDeepSSNを用いて,スケッチマップを用いた空間問合せをユーザが入力する空間シーン探索システムを開発した。
提案手法は,データ拡張後の131,300個のラベル付きシーンサンプルを含むマルチソース・コンバウンド・マップデータを用いて検証する。
- 参考スコア(独自算出の注目度): 11.608756441376544
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Spatial-query-by-sketch is an intuitive tool to explore human spatial
knowledge about geographic environments and to support communication with scene
database queries. However, traditional sketch-based spatial search methods
perform insufficiently due to their inability to find hidden multi-scale map
features from mental sketches. In this research, we propose a deep
convolutional neural network, namely Deep Spatial Scene Network (DeepSSN), to
better assess the spatial scene similarity. In DeepSSN, a triplet loss function
is designed as a comprehensive distance metric to support the similarity
assessment. A positive and negative example mining strategy using qualitative
constraint networks in spatial reasoning is designed to ensure a consistently
increasing distinction of triplets during the training process. Moreover, we
develop a prototype spatial scene search system using the proposed DeepSSN, in
which the users input spatial query via sketch maps and the system can
automatically augment the sketch training data. The proposed model is validated
using multi-source conflated map data including 131,300 labeled scene samples
after data augmentation. The empirical results demonstrate that the DeepSSN
outperforms baseline methods including k-nearest-neighbors, multilayer
perceptron, AlexNet, DenseNet, and ResNet using mean reciprocal rank and
precision metrics. This research advances geographic information retrieval
studies by introducing a novel deep learning method tailored to spatial scene
queries.
- Abstract(参考訳): spatial-query-by-sketchは、地理環境に関する人間の空間知識を探求し、シーンデータベースクエリとの通信をサポートするための直感的なツールである。
しかしながら、従来のスケッチに基づく空間探索手法は、メンタルスケッチから隠れたマルチスケールの地図特徴を見つけることができないため、不十分に機能する。
本研究では,Deep Space Scene Network(DeepSSN)と呼ばれる深層畳み込みニューラルネットワークを提案する。
DeepSSNでは、類似性評価をサポートするために三重項損失関数を包括距離メートル法として設計する。
空間的推論における定性的制約ネットワークを用いた正負の例採鉱戦略は、トレーニング過程における三重項の連続的な区別を確保するために設計されている。
さらに,提案したDeepSSNを用いて,スケッチマップによる空間クエリをユーザが入力し,スケッチ学習データを自動的に拡張できる空間シーン検索システムを開発した。
提案モデルは,データ拡張後の131,300のラベル付きシーンサンプルを含む多元コンフラットマップデータを用いて検証される。
実験結果から,deepssnは,k-nearest-neighbors,多層パーセプトロン,alexnet,drknet,resnetなどのベースライン法を,平均相互ランクと精度指標を用いて上回っている。
本研究では,空間的シーンクエリに適した新しい深層学習手法を導入することにより,地理情報検索研究を進める。
関連論文リスト
- Camera-based 3D Semantic Scene Completion with Sparse Guidance Network [18.415854443539786]
本稿では,SGNと呼ばれるカメラベースのセマンティックシーン補完フレームワークを提案する。
SGNは空間幾何学的手がかりに基づいてセマンティック・アウェア・シード・ボクセルからシーン全体へのセマンティクスの伝播を行う。
実験の結果,既存の最先端手法よりもSGNの方が優れていることが示された。
論文 参考訳(メタデータ) (2023-12-10T04:17:27Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - Semi-Perspective Decoupled Heatmaps for 3D Robot Pose Estimation from
Depth Maps [66.24554680709417]
協調環境における労働者とロボットの正確な3D位置を知ることは、いくつかの実際のアプリケーションを可能にする。
本研究では、深度デバイスと深度ニューラルネットワークに基づく非侵襲的なフレームワークを提案し、外部カメラからロボットの3次元ポーズを推定する。
論文 参考訳(メタデータ) (2022-07-06T08:52:12Z) - S3Net: 3D LiDAR Sparse Semantic Segmentation Network [1.330528227599978]
S3NetはLiDARポイントクラウドセマンティックセグメンテーションのための新しい畳み込みニューラルネットワークである。
sparse intra-channel attention module (sintraam)とsparse inter-channel attention module (sinteram)で構成されるエンコーダ-デコーダバックボーンを採用する。
論文 参考訳(メタデータ) (2021-03-15T22:15:24Z) - PLADE-Net: Towards Pixel-Level Accuracy for Self-Supervised Single-View
Depth Estimation with Neural Positional Encoding and Distilled Matting Loss [49.66736599668501]
PLADE-Netと呼ばれる自己監視型単視点画素レベルの高精度深度推定ネットワークを提案する。
提案手法は,KITTIデータセットの$delta1$測定値の95%を超え,前例のない精度を示す。
論文 参考訳(メタデータ) (2021-03-12T15:54:46Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z) - Multi-Subspace Neural Network for Image Recognition [33.61205842747625]
画像分類タスクでは, 特徴抽出は常に大きな問題であり, クラス内変動により抽出器の設計が困難になる。
近年、ディープラーニングはデータから機能を自動的に学習することに多くの注意を払っている。
本研究では,畳み込みニューラルネットワーク(CNN)のキーコンポーネントをサブスペースの概念と組み合わせたマルチサブスペースニューラルネットワーク(MSNN)を提案する。
論文 参考訳(メタデータ) (2020-06-17T02:55:34Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z) - Hyperspectral Classification Based on 3D Asymmetric Inception Network
with Data Fusion Transfer Learning [36.05574127972413]
私たちはまず、3D非対称なインセプションネットワークであるAINetを提供し、過度に適合する問題を克服します。
HSIデータの空間的コンテキストに対するスペクトルシグネチャの強調により、AINetはこの機能を効果的に伝達し、分類することができる。
論文 参考訳(メタデータ) (2020-02-11T06:37:34Z) - Spatial-Spectral Residual Network for Hyperspectral Image
Super-Resolution [82.1739023587565]
ハイパースペクトル画像超解像のための新しいスペクトル空間残差ネットワーク(SSRNet)を提案する。
提案手法は,2次元畳み込みではなく3次元畳み込みを用いて空間スペクトル情報の探索を効果的に行うことができる。
各ユニットでは空間的・時間的分離可能な3次元畳み込みを用いて空間的・スペクトル的な情報を抽出する。
論文 参考訳(メタデータ) (2020-01-14T03:34:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。