論文の概要: Semantic video segmentation for autonomous driving
- arxiv url: http://arxiv.org/abs/2010.15250v1
- Date: Wed, 28 Oct 2020 21:42:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 06:03:48.569672
- Title: Semantic video segmentation for autonomous driving
- Title(参考訳): 自律運転のためのセマンティックビデオセグメンテーション
- Authors: Minh Triet Chau
- Abstract要約: 我々は、(Shelhamer et al., 2016a)で議論された技術を用いて、自律運転における意味的ビデオセグメンテーション、すなわちリアルタイムビデオにおける道路検出の解決を目指す。
完全畳み込みネットワークは良好な結果をもたらすが,精度を保ちながら速度を半減できることを示す。
テストデータセットはKITTIで、ドイツの街路の実際の映像で構成されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We aim to solve semantic video segmentation in autonomous driving, namely
road detection in real time video, using techniques discussed in (Shelhamer et
al., 2016a). While fully convolutional network gives good result, we show that
the speed can be halved while preserving the accuracy. The test dataset being
used is KITTI, which consists of real footage from Germany's streets.
- Abstract(参考訳): 本研究の目的は,自動運転における意味的ビデオセグメンテーション,すなわちリアルタイムビデオにおける道路検出の解決である(shelhamer et al., 2016a)。
完全畳み込みネットワークは良好な結果をもたらすが,精度を保ちながら速度を半減できることを示す。
テストデータセットはKITTIで、ドイツの街路の実際の映像で構成されている。
関連論文リスト
- Learning Semantic Traversability with Egocentric Video and Automated Annotation Strategy [3.713586225621126]
ロボットは、シーンのセマンティック理解に基づいて、画像内のセマンティック・トラバース可能な地形を識別する能力を持つ必要がある。
この推論能力はセマンティックトラバーサビリティに基づいており、テストドメイン上で微調整されたセマンティックセグメンテーションモデルを使用して頻繁に達成される。
本稿では,エゴセントリックなビデオと自動アノテーションプロセスを用いて,セマンティック・トラバーサビリティ推定器を訓練するための効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-06-05T06:40:04Z) - Tracking Everything Everywhere All at Once [111.00807055441028]
ビデオシーケンスから高密度及び長距離運動を推定するための新しいテスト時間最適化法を提案する。
我々はOmniMotionと呼ばれる完全で一貫した動作表現を提案する。
提案手法は,従来の最先端手法よりも定量的にも定性的にも大きなマージンで優れている。
論文 参考訳(メタデータ) (2023-06-08T17:59:29Z) - Distortion-Aware Network Pruning and Feature Reuse for Real-time Video
Segmentation [49.17930380106643]
本稿では,リアルタイム視覚タスクのスキップ接続によるアーキテクチャの高速化を目的とした新しいフレームワークを提案する。
具体的には、各フレームの到着時に、前のフレームから特徴を変換し、特定の空間的ビンで再利用する。
次に、現在のフレームの領域におけるバックボーンネットワークの部分計算を行い、現在のフレームと前のフレームの時間差をキャプチャする。
論文 参考訳(メタデータ) (2022-06-20T07:20:02Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z) - Object Propagation via Inter-Frame Attentions for Temporally Stable
Video Instance Segmentation [51.68840525174265]
ビデオインスタンスセグメンテーションは、ビデオ内のオブジェクトを検出し、セグメンテーションし、追跡することを目的としている。
現在のアプローチでは、画像レベルのセグメンテーションアルゴリズムを時間領域に拡張している。
本稿では,検出の欠如による問題を解消するビデオインスタンス分割手法を提案する。
論文 参考訳(メタデータ) (2021-11-15T04:15:57Z) - SiamPolar: Semi-supervised Realtime Video Object Segmentation with Polar
Representation [6.108508667949229]
そこで我々は,新しい極性表現を用いたシームズネットワークに基づく半教師付きリアルタイム手法を提案する。
極性表現は、微妙な精度の損失でマスクを符号化するためのパラメータを減らすことができる。
また、異なる空間スケールから特徴を抽出するために、非対称シャイムネットワークも開発されている。
論文 参考訳(メタデータ) (2021-10-27T21:10:18Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - Universal Embeddings for Spatio-Temporal Tagging of Self-Driving Logs [72.67604044776662]
我々は、生のセンサデータから、自動運転シーンの時間的タグ付けの問題に取り組む。
提案手法では,全てのタグに対する普遍的な埋め込みを学習し,多くの属性を効率的にタグ付けし,限られたデータで新しい属性を高速に学習する。
論文 参考訳(メタデータ) (2020-11-12T02:18:16Z) - Highway Driving Dataset for Semantic Video Segmentation [31.198877342304876]
本稿では,セマンティックビデオセグメンテーションタスクのベンチマークであるハイウェイ・ドライビング・データセットについて紹介する。
時間相関を用いたベースラインアルゴリズムを提案する。
時間的相関を解析する試みとともに、ハイウェイ・ドライビング・データセットが意味的ビデオセグメンテーションの研究を促進することを期待する。
論文 参考訳(メタデータ) (2020-11-02T01:50:52Z) - The Pedestrian Patterns Dataset [11.193504036335503]
データセットは、異なる特定のタイムスロットから1週間、同じ3つのルートを繰り返すことで収集された。
データセットの目的は、横断するルートに沿って異なる時間に、社会的および歩行者の行動パターンをキャプチャすることである。
論文 参考訳(メタデータ) (2020-01-06T23:58:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。