論文の概要: Real-Time Segmentation Networks should be Latency Aware
- arxiv url: http://arxiv.org/abs/2004.02574v2
- Date: Wed, 20 Apr 2022 12:20:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 06:53:19.642171
- Title: Real-Time Segmentation Networks should be Latency Aware
- Title(参考訳): リアルタイムセグメンテーションネットワークは遅延に注意すべきである
- Authors: Evann Courdier and Francois Fleuret
- Abstract要約: 「平均対合(mIoU)における平均対合(mIoU)の性能指標は、これらのネットワークがリアルタイムに運用する際の真の性能を推定するために必要な情報を完全には捉えていない。」
ネットワークが処理を完了したときの将来の入力フレームにマッチする将来の出力セグメンテーションマップを予測することを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As scene segmentation systems reach visually accurate results, many recent
papers focus on making these network architectures faster, smaller and more
efficient. In particular, studies often aim at designingreal-time'systems.
Achieving this goal is particularly relevant in the context of real-time video
understanding for autonomous vehicles, and robots. In this paper, we argue that
the commonly used performance metric of mean Intersection over Union (mIoU)
does not fully capture the information required to estimate the true
performance of these networks when they operate inreal-time'. We propose a
change of objective in the segmentation task, and its associated metric that
encapsulates this missing information in the following way: We propose to
predict the future output segmentation map that will match the future input
frame at the time when the network finishes the processing. We introduce the
associated latency-aware metric, from which we can determine a ranking. We
perform latency timing experiments of some recent networks on different
hardware and assess the performances of these networks on our proposed task. We
propose improvements to scene segmentation networks to better perform on our
task by using multi-frames input and increasing capacity in the initial
convolutional layers.
- Abstract(参考訳): シーンセグメンテーションシステムが視覚的に正確な結果に達するにつれて、最近の多くの論文はこれらのネットワークアーキテクチャをより速く、より小さく、より効率的にすることに焦点を当てている。
特に、研究はしばしばリアルタイムシステムの設計を目標としている。
この目標を達成することは、自動運転車やロボットのリアルタイムビデオ理解の文脈において特に重要である。
本稿では,共用平均交叉平均(miou)の性能指標が,これらのネットワークがリアルタイムに動作した場合の真の性能を推定するために必要な情報を完全に捉えていないことを論じる。
本稿では,セグメント化タスクにおける目的の変更とその欠落情報をカプセル化する指標を提案する。ネットワークが処理を完了した時点で,将来の入力フレームにマッチする将来の出力セグメントマップの予測を行う。
関連するレイテンシを意識したメトリクスを導入し、ランキングを決定する。
我々は,近年のネットワークの遅延タイミング実験を行い,提案課題におけるネットワークの性能評価を行った。
本稿では,マルチフレームの入力と初期畳み込み層でのキャパシティ向上により,タスクをより良く実行するシーンセグメンテーションネットワークの改善を提案する。
関連論文リスト
- An Empirical Study of Attention Networks for Semantic Segmentation [11.000308726481236]
近年,注目度に基づくデコーダは,各種データセット上での最先端(SOTA)性能を実現している。
本稿ではまず,計算の複雑さを分析し,その性能を比較する実験を行う。
論文 参考訳(メタデータ) (2023-09-19T00:07:57Z) - A Threefold Review on Deep Semantic Segmentation: Efficiency-oriented,
Temporal and Depth-aware design [77.34726150561087]
我々は、自動運転車のビジョンの文脈において、Deep Semanticの最も関連性があり最近の進歩について調査を行う。
私たちの主な目的は、それぞれの視点で直面している主要な方法、利点、制限、結果、課題に関する包括的な議論を提供することです。
論文 参考訳(メタデータ) (2023-03-08T01:29:55Z) - Distortion-Aware Network Pruning and Feature Reuse for Real-time Video
Segmentation [49.17930380106643]
本稿では,リアルタイム視覚タスクのスキップ接続によるアーキテクチャの高速化を目的とした新しいフレームワークを提案する。
具体的には、各フレームの到着時に、前のフレームから特徴を変換し、特定の空間的ビンで再利用する。
次に、現在のフレームの領域におけるバックボーンネットワークの部分計算を行い、現在のフレームと前のフレームの時間差をキャプチャする。
論文 参考訳(メタデータ) (2022-06-20T07:20:02Z) - Borrowing from yourself: Faster future video segmentation with partial
channel update [0.0]
本稿では,時間依存型チャネルマスキングを用いた畳み込み層を用いて,将来的な映像セグメンテーション予測の課題に取り組むことを提案する。
このテクニックは、各タイミングでフィーチャーマップの選ばれたサブセットだけを更新し、同時に計算とレイテンシを削減します。
この手法をいくつかの高速アーキテクチャに適用し、将来の予測サブタスクに対する利点を実験的に検証する。
論文 参考訳(メタデータ) (2022-02-11T16:37:53Z) - Multi-Exit Semantic Segmentation Networks [78.44441236864057]
本稿では,最先端セグメンテーションモデルをMESSネットワークに変換するフレームワークを提案する。
パラメトリド早期出口を用いた特別訓練されたCNNは、より簡単なサンプルの推測時に、その深さに沿って保存する。
接続されたセグメンテーションヘッドの数、配置、アーキテクチャとエグジットポリシーを併用して、デバイス機能とアプリケーション固有の要件に適応する。
論文 参考訳(メタデータ) (2021-06-07T11:37:03Z) - Spatio-temporal Modeling for Large-scale Vehicular Networks Using Graph
Convolutional Networks [110.80088437391379]
SMARTと呼ばれるグラフベースのフレームワークが提案され、大規模な地理的領域にわたるV2I通信遅延の統計をモデル化し、追跡する。
深層Q-networksアルゴリズムと統合したグラフ畳み込みネットワークを用いたグラフ再構築型手法を開発する。
その結果,提案手法は,モデル化の精度と効率と,大規模車両ネットワークにおける遅延性能を有意に向上させることが示された。
論文 参考訳(メタデータ) (2021-03-13T06:56:29Z) - Fast Video Object Segmentation With Temporal Aggregation Network and
Dynamic Template Matching [67.02962970820505]
ビデオオブジェクト(VOS)に「トラッキング・バイ・検出」を導入する。
本稿では,時間的アグリゲーションネットワークと動的時間進化テンプレートマッチング機構を提案する。
我々は,DAVISベンチマークで1フレームあたり0.14秒,J&Fで75.9%の速度で,複雑なベルとホイッスルを伴わずに,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-11T05:44:16Z) - Temporally Distributed Networks for Fast Video Semantic Segmentation [64.5330491940425]
TDNetは、高速かつ正確なビデオセマンティックセグメンテーションのために設計された時間分散ネットワークである。
我々は,深層CNNの特定の高層層から抽出した特徴を,より浅いサブネットワークから抽出した特徴の合成により近似することができることを観察した。
Cityscapes, CamVid, NYUD-v2 の実験により,本手法が高速かつ低レイテンシで最先端の精度を実現することを示す。
論文 参考訳(メタデータ) (2020-04-03T22:43:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。