論文の概要: Can we cover navigational perception needs of the visually impaired by
panoptic segmentation?
- arxiv url: http://arxiv.org/abs/2007.10202v1
- Date: Mon, 20 Jul 2020 15:35:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 14:07:32.889944
- Title: Can we cover navigational perception needs of the visually impaired by
panoptic segmentation?
- Title(参考訳): パンオプティカルセグメンテーションによる視覚障害者のナビゲーション認知ニーズをカバーできるか?
- Authors: Wei Mao, Jiaming Zhang, Kailun Yang, Rainer Stiefelhagen
- Abstract要約: 視覚障害者のナビゲーション認知は、古典的・深層学習に基づくセグメンテーション手法によって著しく促進されている。
パノプティックセグメンテーション(英: Panoptic segmentation)は、セマンティックセグメンテーションとインスタンスセグメンテーションを統合することを目的とした、新しく提案された視覚モデルである。
本研究では, 視覚障害者に対して, ウェアラブル・アシスト・システムを用いて, 視覚障害者の視覚的情景認識を活用できることを実証する。
- 参考スコア(独自算出の注目度): 36.84154920632496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Navigational perception for visually impaired people has been substantially
promoted by both classic and deep learning based segmentation methods. In
classic visual recognition methods, the segmentation models are mostly
object-dependent, which means a specific algorithm has to be devised for the
object of interest. In contrast, deep learning based models such as instance
segmentation and semantic segmentation allow to individually recognize part of
the entire scene, namely things or stuff, for blind individuals. However, both
of them can not provide a holistic understanding of the surroundings for the
visually impaired. Panoptic segmentation is a newly proposed visual model with
the aim of unifying semantic segmentation and instance segmentation. Motivated
by that, we propose to utilize panoptic segmentation as an approach to
navigating visually impaired people by offering both things and stuff awareness
in the proximity of the visually impaired. We demonstrate that panoptic
segmentation is able to equip the visually impaired with a holistic real-world
scene perception through a wearable assistive system.
- Abstract(参考訳): 視覚障害者のナビゲーション認知は、古典的・深層学習に基づくセグメンテーション手法によって著しく促進されている。
古典的な視覚認識法では、セグメンテーションモデルは主にオブジェクト依存であり、興味のある対象に対して特定のアルゴリズムを考案する必要がある。
対照的に、インスタンスセグメンテーションやセマンティクスセグメンテーションといったディープラーニングベースのモデルでは、視覚障害者のためのシーン全体、すなわち物や物の一部を個々に認識することができる。
しかし、両者とも視覚障害者の周囲を総合的に理解することはできない。
panoptic segmentationは、セマンティックセグメンテーションとインスタンスセグメンテーションを統合する目的で新しく提案されたビジュアルモデルである。
そこで本研究では,視覚障がい者に対して,視覚障がい者に近い物と物を認識することにより,視覚障がい者をナビゲートするためのアプローチとしてpanoptic segmentationの利用を提案する。
汎視分節は,視覚障害者に,ウェアラブル・アシスト・システムを通じて,全体像的実世界シーン知覚を付与できることを実証する。
関連論文リスト
- Primitive Generation and Semantic-related Alignment for Universal
Zero-Shot Segmentation [13.001629605405954]
本研究では, トレーニングサンプルを使わずに, 新規カテゴリのパノプティクス, 例えば, セマンティックセマンティックセマンティックセマンティックセマンティクスを実現するために, ユニバーサルゼロショットセマンティクスについて検討する。
本稿では,意味空間と視覚空間を関連づけた未知のカテゴリの特徴を合成する生成モデルを提案する。
提案手法は、ゼロショットパノプティクスのセグメンテーション、インスタンスセグメンテーション、セマンティックセグメンテーションにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-19T17:59:16Z) - Visual Semantic Segmentation Based on Few/Zero-Shot Learning: An
Overview [47.10687511208189]
本稿では,最近発表された2次元空間から3次元空間への視覚的セマンティックセグメンテーション手法について述べる。
3つの典型的なインスタンス化は、少数/ゼロショット学習と視覚的セマンティックセグメンテーションの相互作用を明らかにするのに関係している。
論文 参考訳(メタデータ) (2022-11-13T13:39:33Z) - Open-world Semantic Segmentation via Contrasting and Clustering
Vision-Language Embedding [95.78002228538841]
本研究では,様々なオープンワールドカテゴリのセマンティックオブジェクトを高密度アノテーションを使わずにセマンティックオブジェクトのセマンティックオブジェクトのセマンティック化を学習するための,新しいオープンワールドセマンティックセマンティックセマンティックセマンティクスパイプラインを提案する。
提案手法は任意のカテゴリのオブジェクトを直接分割し、3つのベンチマークデータセット上でデータラベリングを必要とするゼロショットセグメンテーション法より優れている。
論文 参考訳(メタデータ) (2022-07-18T09:20:04Z) - Self-Supervised Visual Representation Learning with Semantic Grouping [50.14703605659837]
我々は、未ラベルのシーン中心のデータから視覚表現を学習する問題に取り組む。
本研究では,データ駆動型セマンティックスロット,すなわちSlotConによる協調型セマンティックグルーピングと表現学習のためのコントラスト学習を提案する。
論文 参考訳(メタデータ) (2022-05-30T17:50:59Z) - Panoptic Segmentation: A Review [2.270719568619559]
本稿では,既存の汎視的セグメンテーション手法の包括的レビューを行う。
パノプティクスのセグメンテーションは現在、ビデオ監視、群衆のカウント、自動運転、医療画像分析などの画像シーンに関する、より精巧な知識を得るために研究中である。
論文 参考訳(メタデータ) (2021-11-19T14:40:24Z) - The Emergence of Objectness: Learning Zero-Shot Segmentation from Videos [59.12750806239545]
動画は移動成分によって同じシーンを異なる視点で見ることができ、適切な領域分割と領域フローは相互のビュー合成を可能にする。
モデルでは,1枚の画像に対して特徴に基づく領域分割を出力する出現経路と,1枚の画像に対して動作特徴を出力する動き経路の2つの経路から開始する。
セグメントフローに基づく視線合成誤差を最小限に抑えるためにモデルを訓練することにより、我々の外観経路と運動経路は、それぞれ低レベルのエッジや光フローから構築することなく、領域のセグメンテーションとフロー推定を自動的に学習する。
論文 参考訳(メタデータ) (2021-11-11T18:59:11Z) - Constellation: Learning relational abstractions over objects for
compositional imagination [64.99658940906917]
静的な視覚シーンのリレーショナル抽象化を学習するネットワークであるConstellationを紹介する。
この研究は、視覚的関係を明確に表現し、それらを複雑な認知手続きに使用するための第一歩である。
論文 参考訳(メタデータ) (2021-07-23T11:59:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。