論文の概要: Panoptic Lintention Network: Towards Efficient Navigational Perception
for the Visually Impaired
- arxiv url: http://arxiv.org/abs/2103.04128v1
- Date: Sat, 6 Mar 2021 14:45:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 15:48:32.328130
- Title: Panoptic Lintention Network: Towards Efficient Navigational Perception
for the Visually Impaired
- Title(参考訳): panoptic lintention network : 視覚障害者の効率的なナビゲーション知覚に向けて
- Authors: Wei Mao, Jiaming Zhang, Kailun Yang, Rainer Stiefelhagen
- Abstract要約: 線形空間を用いて線形時間における長距離相互作用をモデル化できる効率的なアテンションモジュールを提案する。
次に, panoptic lintention net と呼ぶ新しい panoptic segmentation モデルを考案する。
COCOデータセットの実験では、Panoptic Lintention NetがPanoptic Quality(PQ)を39.39から41.42に引き上げ、4.6%のパフォーマンス向上を示した。
- 参考スコア(独自算出の注目度): 37.09384525057738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classic computer vision algorithms, instance segmentation, and semantic
segmentation can not provide a holistic understanding of the surroundings for
the visually impaired. In this paper, we utilize panoptic segmentation to
assist the navigation of visually impaired people by offering both things and
stuff awareness in the proximity of the visually impaired efficiently. To this
end, we propose an efficient Attention module -- Lintention which can model
long-range interactions in linear time using linear space. Based on Lintention,
we then devise a novel panoptic segmentation model which we term Panoptic
Lintention Net. Experiments on the COCO dataset indicate that the Panoptic
Lintention Net raises the Panoptic Quality (PQ) from 39.39 to 41.42 with 4.6\%
performance gain while only requiring 10\% fewer GFLOPs and 25\% fewer
parameters in the semantic branch. Furthermore, a real-world test via our
designed compact wearable panoptic segmentation system, indicates that our
system based on the Panoptic Lintention Net accomplishes a relatively stable
and exceptionally remarkable panoptic segmentation in real-world scenes.
- Abstract(参考訳): 古典的なコンピュータビジョンアルゴリズム、インスタンスセグメンテーション、セマンティックセグメンテーションは視覚障害者の周囲を総合的に理解することができない。
本論文では,視覚障がい者のナビゲーションを支援するために,視覚障がい者の近辺でモノとモノの両方の認識を提供することにより,パンオプティカルセグメンテーションを活用する。
この目的のために,線形空間を用いて長距離相互作用を線形時間でモデル化できる効率的なアテンションモジュール-Lintentionを提案する。
次に、Lintentionに基づいて、Panoptic Lintention Netと呼ばれる新しいPanoptic segmentationモデルを作成する。
COCOデータセットの実験によると、Panoptic Lintention NetはPanoptic Quality (PQ)を39.39から41.42に引き上げ、パフォーマンスは4.6\%、GFLOPは10.%、セマンティックブランチではパラメータは25.%である。
さらに,我々の設計した小型ウェアラブルpanopticセグメンテーションシステムを用いた実世界のテストにより,panoptic lintention netに基づくシステムは,実世界のシーンにおいて比較的安定かつ極めて顕著なpanopticセグメンテーションを実現することが示された。
関連論文リスト
- Panoptic-FlashOcc: An Efficient Baseline to Marry Semantic Occupancy with Panoptic via Instance Center [9.290505929115637]
我々は,リアルタイムなパノプティクスの占有を可能にする,単純かつ堅牢な2D機能フレームワークであるPanoptic-FlashOccを提案する。
本手法では,単一ネットワークにおけるセマンティック占有とクラス対応インスタンスクラスタリングを同時に学習する。
Panoptic-FlashOccは、汎視的占有率予測における顕著な成果を示す。
論文 参考訳(メタデータ) (2024-06-15T06:39:38Z) - Feature Enhancer Segmentation Network (FES-Net) for Vessel Segmentation [19.455350961592742]
本稿では,画像強調ステップを必要とせずに正確な画素分割を実現する機能拡張セグメンテーションネットワーク(FES-Net)を提案する。
FES-Netは入力画像を直接処理し、ダウンサンプリング中に4つのプロンプト畳み込みブロック(PCB)を利用する。
DRIVE, STARE, CHASE, HRFの4つの公開技術データセット上でのFES-Netの性能を評価する。
論文 参考訳(メタデータ) (2023-09-07T07:46:46Z) - You Only Segment Once: Towards Real-Time Panoptic Segmentation [68.91492389185744]
YOSOはリアルタイムのパン光学セグメンテーションフレームワークである。
YOSOは、パン光学カーネルと画像特徴マップの間の動的畳み込みを通じてマスクを予測する。
YOSOは、COCOで46.4 PQ、45.6 FPS、都市景観で52.5 PQ、22.6 FPS、ADE20Kで38.0 PQ、35.4 FPSを達成している。
論文 参考訳(メタデータ) (2023-03-26T07:55:35Z) - Pointly-Supervised Panoptic Segmentation [106.68888377104886]
弱教師付き単眼セグメンテーションにポイントレベルのアノテーションを適用するための新しい手法を提案する。
完全に教師された方法で使用される高密度のピクセルレベルラベルの代わりに、ポイントレベルラベルは、監督対象ごとに単一のポイントしか提供しない。
我々は、ポイントレベルのラベルから同時に汎視的擬似マスクを生成し、それらから学習することで、エンドツーエンドのフレームワークにおける問題を定式化する。
論文 参考訳(メタデータ) (2022-10-25T12:03:51Z) - Fully Convolutional Networks for Panoptic Segmentation with Point-based
Supervision [88.71403886207071]
そこで我々は,Panoptic FCNと呼ばれる,完全かつ弱教師付きパノプティカルセグメンテーションのための,概念的にシンプルで強力で効率的なフレームワークを提案する。
我々のアプローチは、統一された完全な畳み込みパイプラインにおいて、前景や背景を表現し、予測することを目的としています。
Panoptic FCNは、提案したカーネルジェネレータで各オブジェクトのインスタンスやもののカテゴリをエンコードし、高解像度の機能を直接変換することで予測を生成する。
論文 参考訳(メタデータ) (2021-08-17T15:28:53Z) - Panoptic-PolarNet: Proposal-free LiDAR Point Cloud Panoptic Segmentation [21.296942497092402]
我々は、Panoptic-PolarNetと呼ばれる高速で堅牢なLiDARポイントクラウドパノラマセグメンテーションフレームワークを提示します。
ポーラバードのアイビュー表現を用いて,セマンティックセグメンテーションとクラス非依存のインスタンスクラスタリングの両方を単一推論ネットワークで学習する。
実験の結果,Panoptic-PolarNetは,Semantic KITTIおよびnuScenesデータセットのベースライン手法をほぼリアルタイムな推論速度で上回っていることがわかった。
論文 参考訳(メタデータ) (2021-03-27T18:31:40Z) - Fully Convolutional Networks for Panoptic Segmentation [91.84686839549488]
そこで我々は,Panoptic FCNという概念的,シンプルで,強力で,効率的なパノプティックセグメンテーションフレームワークを提案する。
我々のアプローチは、統一された完全な畳み込みパイプラインにおいて、前景や背景を表現し、予測することを目的としています。
Panoptic FCNは、提案されたカーネルジェネレータで、各オブジェクトインスタンスまたは物カテゴリを特定のカーネル重みにエンコードする。
論文 参考訳(メタデータ) (2020-12-01T18:31:41Z) - Can we cover navigational perception needs of the visually impaired by
panoptic segmentation? [36.84154920632496]
視覚障害者のナビゲーション認知は、古典的・深層学習に基づくセグメンテーション手法によって著しく促進されている。
パノプティックセグメンテーション(英: Panoptic segmentation)は、セマンティックセグメンテーションとインスタンスセグメンテーションを統合することを目的とした、新しく提案された視覚モデルである。
本研究では, 視覚障害者に対して, ウェアラブル・アシスト・システムを用いて, 視覚障害者の視覚的情景認識を活用できることを実証する。
論文 参考訳(メタデータ) (2020-07-20T15:35:58Z) - Unifying Training and Inference for Panoptic Segmentation [111.44758195510838]
本稿では,汎視的セグメンテーションのためのトレーニングと推論のギャップを埋めるエンド・ツー・エンドのネットワークを提案する。
本システムは,ResNet-50のバックボーンで61.4 PQを達成した,人気のストリートシーンデータセットであるCityscapesに新たなレコードを設定する。
当社のネットワークは柔軟にオブジェクトマスクのヒントなしで動作し、両方の設定下で競合的に動作します。
論文 参考訳(メタデータ) (2020-01-14T18:58:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。