論文の概要: Highway Driving Dataset for Semantic Video Segmentation
- arxiv url: http://arxiv.org/abs/2011.00674v1
- Date: Mon, 2 Nov 2020 01:50:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 12:16:40.055492
- Title: Highway Driving Dataset for Semantic Video Segmentation
- Title(参考訳): セマンティックビデオセグメンテーションのためのハイウェイ駆動データセット
- Authors: Byungju Kim, Junho Yim and Junmo Kim
- Abstract要約: 本稿では,セマンティックビデオセグメンテーションタスクのベンチマークであるハイウェイ・ドライビング・データセットについて紹介する。
時間相関を用いたベースラインアルゴリズムを提案する。
時間的相関を解析する試みとともに、ハイウェイ・ドライビング・データセットが意味的ビデオセグメンテーションの研究を促進することを期待する。
- 参考スコア(独自算出の注目度): 31.198877342304876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scene understanding is an essential technique in semantic segmentation.
Although there exist several datasets that can be used for semantic
segmentation, they are mainly focused on semantic image segmentation with large
deep neural networks. Therefore, these networks are not useful for real time
applications, especially in autonomous driving systems. In order to solve this
problem, we make two contributions to semantic segmentation task. The first
contribution is that we introduce the semantic video dataset, the Highway
Driving dataset, which is a densely annotated benchmark for a semantic video
segmentation task. The Highway Driving dataset consists of 20 video sequences
having a 30Hz frame rate, and every frame is densely annotated. Secondly, we
propose a baseline algorithm that utilizes a temporal correlation. Together
with our attempt to analyze the temporal correlation, we expect the Highway
Driving dataset to encourage research on semantic video segmentation.
- Abstract(参考訳): シーン理解はセマンティックセグメンテーションに欠かせない技法である。
セマンティックセグメンテーションに使用できるデータセットはいくつか存在するが、主に大きなディープニューラルネットワークを用いたセマンティックイメージセグメンテーションに焦点を当てている。
したがって、これらのネットワークはリアルタイムアプリケーション、特に自動運転システムでは役に立たない。
この問題を解決するために、セマンティックセグメンテーションタスクに2つの貢献をする。
最初のコントリビューションは、セマンティックビデオセグメンテーションタスクのための高密度アノテーション付きベンチマークである、セマンティックビデオデータセットであるHighway Drivingデータセットを導入することである。
高速道路の運転データセットは、30hzのフレームレートを持つ20の動画シーケンスで構成され、各フレームは密に注釈付けされている。
次に,時間相関を利用したベースラインアルゴリズムを提案する。
時間的相関を解析しようとする試みとともに、高速道路走行データセットがセマンティックビデオセグメンテーションの研究を促進することを期待している。
関連論文リスト
- Tracking Anything with Decoupled Video Segmentation [87.07258378407289]
我々はデカップリングビデオセグメンテーションアプローチ(DEVA)を開発した。
タスク固有のイメージレベルセグメンテーションと、クラス/タスク非依存の双方向の時間的伝搬で構成されている。
この分離された定式化は、複数のデータスカースタスクにおけるエンドツーエンドのアプローチと良好に比較できることを示す。
論文 参考訳(メタデータ) (2023-09-07T17:59:41Z) - Semi-Weakly Supervised Object Kinematic Motion Prediction [56.282759127180306]
3Dオブジェクトが与えられた場合、運動予測は移動部と対応する運動パラメータを識別することを目的としている。
階層的部分分割と移動部パラメータのマップを学習するグラフニューラルネットワークを提案する。
ネットワーク予測は、擬似ラベル付き移動情報を持つ大規模な3Dオブジェクトを生成する。
論文 参考訳(メタデータ) (2023-03-31T02:37:36Z) - A Threefold Review on Deep Semantic Segmentation: Efficiency-oriented,
Temporal and Depth-aware design [77.34726150561087]
我々は、自動運転車のビジョンの文脈において、Deep Semanticの最も関連性があり最近の進歩について調査を行う。
私たちの主な目的は、それぞれの視点で直面している主要な方法、利点、制限、結果、課題に関する包括的な議論を提供することです。
論文 参考訳(メタデータ) (2023-03-08T01:29:55Z) - 1st Place Solution for YouTubeVOS Challenge 2021:Video Instance
Segmentation [0.39146761527401414]
ビデオインスタンス(VIS)は、検出、セグメンテーション、トラッキングを同時に実行するマルチタスク問題である。
我々はTemporally Correlated Instance (TCIS) と Bidirectional Tracking (BiTrack) という2つのモジュールを提案する。
これらの手法をトリックの袋と組み合わせることで、ネットワーク性能はベースラインに比べて大幅に向上する。
論文 参考訳(メタデータ) (2021-06-12T00:20:38Z) - SegmentMeIfYouCan: A Benchmark for Anomaly Segmentation [111.61261419566908]
ディープニューラルネットワーク(DNN)は通常、閉集合のセマンティッククラスで訓練される。
未発見のオブジェクトを扱うには不備だ。
このような物体の検出と局在化は、自動運転の認識などの安全クリティカルなアプリケーションに不可欠です。
論文 参考訳(メタデータ) (2021-04-30T07:58:19Z) - Few-Shot Action Recognition with Compromised Metric via Optimal
Transport [31.834843714684343]
少数の画像分類の広い研究にもかかわらず、少数のアクション認識はまだ成熟していません。
これらのアルゴリズムをアクション認識に適用する主な障害の1つは、ビデオの複雑な構造です。
これら2つのソリューションの利点を組み合わせるために、CMOT(Compromised Metric via Optimal Transport)を提案します。
論文 参考訳(メタデータ) (2021-04-08T12:42:05Z) - Video Class Agnostic Segmentation Benchmark for Autonomous Driving [13.312978643938202]
特定の安全クリティカルなロボティクスアプリケーションでは、トレーニング時に未知のものを含むすべてのオブジェクトを分割することが重要です。
自律運転における単眼ビデオシーケンスから未知の物体を考慮に入れたビデオクラスセグメンテーションのタスクを定式化する。
論文 参考訳(メタデータ) (2021-03-19T20:41:40Z) - STEP: Segmenting and Tracking Every Pixel [107.23184053133636]
新しいベンチマークを示す: Segmenting and Tracking Every Pixel (STEP)
私たちの仕事は、空間領域と時間領域の両方で密な解釈を必要とする現実世界の設定で、このタスクをターゲットとする最初のものです。
性能を測定するために,新しい評価指標と追跡品質(STQ)を提案する。
論文 参考訳(メタデータ) (2021-02-23T18:43:02Z) - Efficient Video Semantic Segmentation with Labels Propagation and
Refinement [138.55845680523908]
本稿では,ハイブリッドGPU/CPUを用いた高精細ビデオのリアルタイムセマンティックセマンティックセマンティック化の問題に取り組む。
i) CPU上では、非常に高速な光フロー法であり、ビデオの時間的側面を利用して、あるフレームから次のフレームへ意味情報を伝達するために使用される。
高解像度フレーム(2048 x 1024)を持つ一般的なCityscapesデータセットでは、単一のGPUとCPU上で80から1000Hzの動作ポイントが提案されている。
論文 参考訳(メタデータ) (2019-12-26T11:45:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。