論文の概要: Topological Semantic Mapping by Consolidation of Deep Visual Features
- arxiv url: http://arxiv.org/abs/2106.12709v1
- Date: Thu, 24 Jun 2021 01:10:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-25 14:57:18.144441
- Title: Topological Semantic Mapping by Consolidation of Deep Visual Features
- Title(参考訳): 深い視覚特徴の統合によるトポロジカル意味マッピング
- Authors: Ygor C. N. Sousa, Hansenclever F. Bassani
- Abstract要約: 本研究は,ロボットが操作する環境の複数ビューで撮影された2次元画像から,CNNによって抽出された深い視覚的特徴を利用するトポロジカルセマンティックマッピング手法を提案する。
実世界の屋内データセットを用いて実験を行った結果、この手法は領域の視覚的特徴を統合し、それらを用いてオブジェクトとカテゴリを意味的特性として認識できることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many works in the recent literature introduce semantic mapping methods that
use CNNs (Convolutional Neural Networks) to recognize semantic properties in
images. The types of properties (eg.: room size, place category, and objects)
and their classes (eg.: kitchen and bathroom, for place category) are usually
predefined and restricted to a specific task. Thus, all the visual data
acquired and processed during the construction of the maps are lost and only
the recognized semantic properties remain on the maps. In contrast, this work
introduces a topological semantic mapping method that uses deep visual features
extracted by a CNN, the GoogLeNet, from 2D images captured in multiple views of
the environment as the robot operates, to create consolidated representations
of visual features acquired in the regions covered by each topological node.
These consolidated representations allow flexible recognition of semantic
properties of the regions and use in a range of visual tasks. The experiments,
performed using a real-world indoor dataset, showed that the method is able to
consolidate the visual features of regions and use them to recognize objects
and place categories as semantic properties, and to indicate the topological
location of images, with very promising results. The objects are classified
using the classification layer of GoogLeNet, without retraining, and the place
categories are recognized using a shallow Multilayer Perceptron.
- Abstract(参考訳): 最近の文献では、画像のセマンティック特性を認識するためにCNN(Convolutional Neural Networks)を使用するセマンティックマッピング手法を導入している。
プロパティの種類(例)。
:部屋の大きさ,場所カテゴリー,対象)とそのクラス(例。
キッチンとトイレ(場所)は通常、事前に定義され、特定のタスクに制限される。
したがって、地図の構築中に取得・処理された全ての視覚データは失われ、認識された意味的特性のみが地図上に残る。
対照的に,本研究では,ロボットが操作する環境の複数ビューで捉えた2次元画像から,CNNによって抽出された深い視覚的特徴を利用するトポロジ的意味マッピング手法を導入し,各トポロジ的ノードがカバーする領域で取得した視覚的特徴の総合表現を作成する。
これらの統合表現は、領域の意味的特性を柔軟に認識し、様々な視覚的タスクで使用できる。
実世界の屋内データセットを用いて行った実験は、この手法が領域の視覚的特徴を統合し、オブジェクトやカテゴリを意味的特性として認識し、画像のトポロジカルな位置を非常に有望な結果で示すことができることを示した。
対象物をGoogLeNetの分類層を用いて再訓練することなく分類し,浅い多層パーセプトロンを用いて位置分類を行う。
関連論文リスト
- Mapping High-level Semantic Regions in Indoor Environments without
Object Recognition [50.624970503498226]
本研究では,屋内環境における埋め込みナビゲーションによる意味領域マッピング手法を提案する。
地域識別を実現するために,視覚言語モデルを用いて地図作成のためのシーン情報を提供する。
グローバルなフレームにエゴセントリックなシーン理解を投影することにより、提案手法は各場所の可能な領域ラベル上の分布としてのセマンティックマップを生成する。
論文 参考訳(メタデータ) (2024-03-11T18:09:50Z) - Structure-Guided Image Completion with Image-level and Object-level Semantic Discriminators [97.12135238534628]
複雑な意味論やオブジェクトの生成を改善するために,セマンティック・ディミネータとオブジェクトレベル・ディミネータからなる学習パラダイムを提案する。
特に、セマンティック・ディミネーターは、事前学習された視覚的特徴を利用して、生成された視覚概念の現実性を改善する。
提案手法は, 生成品質を著しく向上させ, 各種タスクの最先端化を実現する。
論文 参考訳(メタデータ) (2022-12-13T01:36:56Z) - Attribute Prototype Network for Any-Shot Learning [113.50220968583353]
属性ローカライズ機能を統合した画像表現は、任意のショット、すなわちゼロショットと少数ショットのイメージ分類タスクに有用である、と我々は主張する。
クラスレベルの属性のみを用いてグローバルな特徴とローカルな特徴を共同で学習する新しい表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-04T02:25:40Z) - Contrastive learning of Class-agnostic Activation Map for Weakly
Supervised Object Localization and Semantic Segmentation [32.76127086403596]
ラベルなし画像データを用いたクラス非依存型活性化マップ(C$2$AM)生成のためのコントラスト学習を提案する。
我々は上記の関係に基づいて正対と負の対を形成し、ネットワークを前景と背景を乱すように強制する。
ネットワークは画像前景を識別するために誘導されるため,本手法で学習したクラス非依存のアクティベーションマップは,より完全なオブジェクト領域を生成する。
論文 参考訳(メタデータ) (2022-03-25T08:46:24Z) - Segmentation in Style: Unsupervised Semantic Image Segmentation with
Stylegan and CLIP [39.0946507389324]
本研究では,人間の監督なしに画像を自動的に意味のある領域に分割する手法を提案する。
派生領域は、異なる画像間で一貫性があり、いくつかのデータセット上の人間定義のセマンティッククラスと一致する。
提案手法を公開データセット上でテストし,現状の成果を示す。
論文 参考訳(メタデータ) (2021-07-26T23:48:34Z) - Rethinking Semantic Segmentation Evaluation for Explainability and Model
Selection [12.786648212233116]
地域ベースのオーバーおよびアンダーセグメンテーションを評価するための新しいメトリクスを紹介します。
分析して他のメトリクスと比較し、実世界のアプリケーションにおけるセマンティックセグメンテーションモデルのパフォーマンスをより説明しやすくなることを示す。
論文 参考訳(メタデータ) (2021-01-21T03:12:43Z) - Weakly-Supervised Semantic Segmentation via Sub-category Exploration [73.03956876752868]
我々は、オブジェクトの他の部分に注意を払うために、ネットワークを強制する単純で効果的なアプローチを提案する。
具体的には、画像の特徴をクラスタリングして、アノテーション付き親クラスごとに擬似サブカテゴリラベルを生成する。
提案手法の有効性を検証し,提案手法が最先端手法に対して良好に機能することを示す。
論文 参考訳(メタデータ) (2020-08-03T20:48:31Z) - Hallucinating Saliency Maps for Fine-Grained Image Classification for
Limited Data Domains [27.91871214060683]
画像分類を改善するために,明示的なサリエンシマップを必要としないアプローチを提案する。
提案手法は,サリエンシマップを明示的に提供した場合と同じような結果が得られることを示す。
また,サリエンシ基盤データなしでトレーニングされたサリエンシ推定手法は,実画像サリエンシベンチマーク(Toronto)において競合する結果が得られることを示した。
論文 参考訳(メタデータ) (2020-07-24T15:08:55Z) - Learning to Compose Hypercolumns for Visual Correspondence [57.93635236871264]
本稿では,画像に条件付けされた関連レイヤを活用することで,動的に効率的な特徴を構成する視覚対応手法を提案する。
提案手法はダイナミックハイパーピクセルフロー(Dynamic Hyperpixel Flow)と呼ばれ,深層畳み込みニューラルネットワークから少数の関連層を選択することにより,高速にハイパーカラム機能を構成することを学習する。
論文 参考訳(メタデータ) (2020-07-21T04:03:22Z) - Mining Cross-Image Semantics for Weakly Supervised Semantic Segmentation [128.03739769844736]
2つのニューラルコアテンションを分類器に組み込んで、画像間のセマンティックな類似点と相違点をキャプチャする。
オブジェクトパターン学習の強化に加えて、コアテンションは他の関連する画像からのコンテキストを活用して、ローカライズマップの推論を改善することができる。
提案アルゴリズムは,これらすべての設定に対して新たな最先端性を設定し,その有効性と一般化性を示す。
論文 参考訳(メタデータ) (2020-07-03T21:53:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。