論文の概要: Abstract Flow for Temporal Semantic Segmentation on the Permutohedral
Lattice
- arxiv url: http://arxiv.org/abs/2203.15469v1
- Date: Tue, 29 Mar 2022 12:14:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 13:42:21.567226
- Title: Abstract Flow for Temporal Semantic Segmentation on the Permutohedral
Lattice
- Title(参考訳): ペルムトヘドラル格子上の時間的意味セグメンテーションのための抽象的流れ
- Authors: Peer Sch\"utt, Radu Alexandru Rosu and Sven Behnke
- Abstract要約: バックボーンのLatticeNetを拡張して、時間的ポイントクラウドデータを処理します。
我々は,ネットワークがシーンの一部に類似した抽象的な特徴を持たせるための抽象フローという新しいモジュールを提案する。
我々は,実都市環境からのLiDARスキャンを含むSemantic KITTIデータセットの最先端結果を得た。
- 参考スコア(独自算出の注目度): 27.37701107719647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic segmentation is a core ability required by autonomous agents, as
being able to distinguish which parts of the scene belong to which object class
is crucial for navigation and interaction with the environment. Approaches
which use only one time-step of data cannot distinguish between moving objects
nor can they benefit from temporal integration. In this work, we extend a
backbone LatticeNet to process temporal point cloud data. Additionally, we take
inspiration from optical flow methods and propose a new module called Abstract
Flow which allows the network to match parts of the scene with similar abstract
features and gather the information temporally. We obtain state-of-the-art
results on the SemanticKITTI dataset that contains LiDAR scans from real urban
environments. We share the PyTorch implementation of TemporalLatticeNet at
https://github.com/AIS-Bonn/temporal_latticenet .
- Abstract(参考訳): セマンティックセグメンテーション(semantic segmentation)は、自律的なエージェントが必要とする中核的な能力であり、シーンのどの部分がどのオブジェクトクラスに属するのかを、ナビゲーションや環境とのインタラクションに不可欠であるかを識別できる。
データの1つの時間ステップのみを使用するアプローチは、動くオブジェクトを区別できず、時間的統合の恩恵を受けることができない。
本研究では,バックボーン格子を拡張し,時間的点雲データを処理する。
さらに、光学フロー法からインスピレーションを得て、ネットワークがシーンの一部に類似した抽象的な特徴でマッチングし、時間的に情報を収集できるAbstract Flowという新しいモジュールを提案する。
我々は,実都市環境からのLiDARスキャンを含むSemanticKITTIデータセットの最先端結果を得た。
我々はtemporallatticenetのpytorch実装をhttps://github.com/ais-bonn/temporal_latticenetで共有する。
関連論文リスト
- STARFlow: Spatial Temporal Feature Re-embedding with Attentive Learning
for Real-world Scene Flow [6.155589434533128]
両ユークリッド空間における全点対に一致する大域的注意流埋め込みを提案する。
我々は、新しいドメイン適応損失を利用して、合成から実世界への動き推論のギャップを埋める。
提案手法は,実世界のLiDARスキャンデータセットにおいて特に顕著な結果を得て,各種データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-11T04:56:10Z) - Refining Segmentation On-the-Fly: An Interactive Framework for Point
Cloud Semantic Segmentation [9.832150567595718]
ポイントクラウドセマンティックセマンティックセグメンテーションのための最初の対話型フレームワークであるInterPCSegを提示する。
本研究では,対話型ポイントクラウドセマンティックセマンティックセグメンテーションタスクに適したインタラクションシミュレーション手法を開発した。
市販セグメンテーションネットワークを用いたS3DISおよびScanNetデータセットのフレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-03-11T03:24:58Z) - Semantics Meets Temporal Correspondence: Self-supervised Object-centric Learning in Videos [63.94040814459116]
自己教師付き手法は、高レベルの意味論と低レベルの時間対応の学習において顕著な進歩を見せている。
融合した意味特徴と対応地図の上に,意味認識型マスキングスロットアテンションを提案する。
我々は、時間的コヒーレントなオブジェクト中心表現を促進するために、セマンティックおよびインスタンスレベルの時間的一貫性を自己スーパービジョンとして採用する。
論文 参考訳(メタデータ) (2023-08-19T09:12:13Z) - Tracking Objects and Activities with Attention for Temporal Sentence
Grounding [51.416914256782505]
時間文 (TSG) は、意味的に自然言語のクエリと一致した時間セグメントを、トリミングされていないセグメントでローカライズすることを目的としている。
本稿では,(A)マルチモーダル・検索空間を生成するクロスモーダル・ターゲット・ジェネレータと(B)マルチモーダル・ターゲットの動作を追跡し,クエリ関連セグメントを予測するテンポラル・センセント・トラッカーとを含む,新しいテンポラル・センセント・トラッカー・ネットワーク(TSTNet)を提案する。
論文 参考訳(メタデータ) (2023-02-21T16:42:52Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - IAUnet: Global Context-Aware Feature Learning for Person
Re-Identification [106.50534744965955]
IAUブロックは、グローバル空間、時間、チャネルコンテキストを組み込むことができる。
軽量でエンドツーエンドのトレーニングが可能で、既存のCNNに簡単に接続してIAUnetを形成することができる。
実験の結果、IAUnetは画像とビデオの両方で最先端のreIDタスクに対して好意的に機能することがわかった。
論文 参考訳(メタデータ) (2020-09-02T13:07:10Z) - ASAP-Net: Attention and Structure Aware Point Cloud Sequence
Segmentation [49.15948235059343]
我々は、ASAPと呼ばれるフレキシブルモジュールにより、ポイントテンポラルクラウド機能をさらに改善する。
我々のASAPモジュールは、フレーム間の比較的情報性の高い局所的特徴を連続的に融合させるために、注意深い時間的埋め込み層を含んでいる。
本稿では、ポイントクラウドシーケンシャルセグメンテーションのための異なる計算バックボーンネットワークを持つASAPモジュールの一般化能力を示す。
論文 参考訳(メタデータ) (2020-08-12T07:37:16Z) - Fast Video Object Segmentation With Temporal Aggregation Network and
Dynamic Template Matching [67.02962970820505]
ビデオオブジェクト(VOS)に「トラッキング・バイ・検出」を導入する。
本稿では,時間的アグリゲーションネットワークと動的時間進化テンプレートマッチング機構を提案する。
我々は,DAVISベンチマークで1フレームあたり0.14秒,J&Fで75.9%の速度で,複雑なベルとホイッスルを伴わずに,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-11T05:44:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。