論文の概要: EffiPerception: an Efficient Framework for Various Perception Tasks
- arxiv url: http://arxiv.org/abs/2403.12317v1
- Date: Mon, 18 Mar 2024 23:22:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-20 17:52:34.461980
- Title: EffiPerception: an Efficient Framework for Various Perception Tasks
- Title(参考訳): EffiPerception: さまざまな知覚タスクのための効率的なフレームワーク
- Authors: Xinhao Xiang, Simon Dräger, Jiawei Zhang,
- Abstract要約: EffiPerceptionは、一般的な学習パターンを探求し、モジュールを増やすためのフレームワークである。
複数の知覚タスクにおいて比較的低いメモリコストで、高い精度のロバスト性を実現することができる。
EffiPerceptionは4つの検出およびセグメンテーションタスクにおいて、精度-メモリ全体のパフォーマンスが大幅に向上する可能性がある。
- 参考スコア(独自算出の注目度): 6.1522068855729755
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The accuracy-speed-memory trade-off is always the priority to consider for several computer vision perception tasks. Previous methods mainly focus on a single or small couple of these tasks, such as creating effective data augmentation, feature extractor, learning strategies, etc. These approaches, however, could be inherently task-specific: their proposed model's performance may depend on a specific perception task or a dataset. Targeting to explore common learning patterns and increasing the module robustness, we propose the EffiPerception framework. It could achieve great accuracy-speed performance with relatively low memory cost under several perception tasks: 2D Object Detection, 3D Object Detection, 2D Instance Segmentation, and 3D Point Cloud Segmentation. Overall, the framework consists of three parts: (1) Efficient Feature Extractors, which extract the input features for each modality. (2) Efficient Layers, plug-in plug-out layers that further process the feature representation, aggregating core learned information while pruning noisy proposals. (3) The EffiOptim, an 8-bit optimizer to further cut down the computational cost and facilitate performance stability. Extensive experiments on the KITTI, semantic-KITTI, and COCO datasets revealed that EffiPerception could show great accuracy-speed-memory overall performance increase within the four detection and segmentation tasks, in comparison to earlier, well-respected methods.
- Abstract(参考訳): 精度とメモリのトレードオフは、コンピュータビジョン認識タスクにおいて常に考慮すべき優先事項である。
これまでは主に、効果的なデータ拡張、特徴抽出、学習戦略など、単一のあるいは小さなタスクに重点を置いてきた。
提案されたモデルの性能は、特定の知覚タスクやデータセットに依存する可能性がある。
共通学習パターンの探索とモジュールの堅牢性の向上を目的として,EffiPerceptionフレームワークを提案する。
2Dオブジェクト検出、3Dオブジェクト検出、2Dインスタンスセグメンテーション、3Dポイントクラウドセグメンテーション。
全体として、このフレームワークは3つの部分から構成される: (1) 効率の良い特徴エクストラクタで、各モダリティの入力特徴を抽出する。
2) 効率的なレイヤ、機能表現をさらに処理するプラグイン・プラグイン・アウト・レイヤ、そして、ノイズの多い提案を練りながらコア学習情報を集約する。
(3)8ビットオプティマイザであるEffiOptimは,計算コストをさらに削減し,性能安定性を向上する。
KITTI、セマンティクス-KITTI、COCOデータセットの大規模な実験により、EffiPerceptionは4つの検出およびセグメンテーションタスクにおいて、従来よく検討されていた方法と比較して、大幅な精度とメモリ全体のパフォーマンス向上を示すことが示された。
関連論文リスト
- LiSD: An Efficient Multi-Task Learning Framework for LiDAR Segmentation and Detection [6.813145466843275]
LiSDはボクセルベースのエンコーダデコーダフレームワークで、セグメンテーションと検出の両方のタスクに対処する。
これは、ライダーのみの手法のnuScenesセグメンテーションベンチマークにおいて、83.3% mIoUの最先端性能を達成する。
論文 参考訳(メタデータ) (2024-06-11T07:26:54Z) - A Point-Based Approach to Efficient LiDAR Multi-Task Perception [49.91741677556553]
PAttFormerは、ポイントクラウドにおける共同セマンティックセグメンテーションとオブジェクト検出のための効率的なマルチタスクアーキテクチャである。
他のLiDARベースのマルチタスクアーキテクチャとは異なり、提案したPAttFormerはタスク固有のポイントクラウド表現のために別の機能エンコーダを必要としない。
マルチタスク学習では,mIouでは+1.7%,mAPでは3Dオブジェクト検出では+1.7%,LiDARセマンティックセマンティックセグメンテーションは+1.7%向上した。
論文 参考訳(メタデータ) (2024-04-19T11:24:34Z) - A Dynamic Feature Interaction Framework for Multi-task Visual Perception [100.98434079696268]
複数の共通認識課題を解決するための効率的な統合フレームワークを考案する。
これらのタスクには、インスタンスセグメンテーション、セマンティックセグメンテーション、モノクル3D検出、深さ推定が含まれる。
提案するフレームワークはD2BNetと呼ばれ,マルチタスク認識のためのパラメータ効率予測に一意なアプローチを示す。
論文 参考訳(メタデータ) (2023-06-08T09:24:46Z) - UNETR++: Delving into Efficient and Accurate 3D Medical Image Segmentation [93.88170217725805]
本稿では,高画質なセグメンテーションマスクと,パラメータ,計算コスト,推論速度の両面での効率性を提供するUNETR++という3次元医用画像セグメンテーション手法を提案する。
我々の設計の核となるのは、空間的およびチャネル的な識別的特徴を効率的に学習する、新しい効率的な対注意ブロック(EPA)の導入である。
Synapse, BTCV, ACDC, BRaTs, Decathlon-Lungの5つのベンチマークで評価した結果, 効率と精度の両面で, コントリビューションの有効性が示された。
論文 参考訳(メタデータ) (2022-12-08T18:59:57Z) - HALSIE: Hybrid Approach to Learning Segmentation by Simultaneously
Exploiting Image and Event Modalities [6.543272301133159]
イベントカメラは、非同期イベントストリームを生成するためにピクセルごとの強度の変化を検出する。
リアルタイム自律システムにおいて、正確なセマンティックマップ検索のための大きな可能性を秘めている。
イベントセグメンテーションの既存の実装は、サブベースのパフォーマンスに悩まされている。
本研究では,ハイブリット・エンド・エンド・エンドの学習フレームワークHALSIEを提案する。
論文 参考訳(メタデータ) (2022-11-19T17:09:50Z) - The Devil is in the Task: Exploiting Reciprocal Appearance-Localization
Features for Monocular 3D Object Detection [62.1185839286255]
低コストのモノクル3D物体検出は、自律運転において基本的な役割を果たす。
DFR-Netという動的特徴反射ネットワークを導入する。
我々は、KITTIテストセットの全ての単分子3D物体検出器の中で、第1位にランク付けする。
論文 参考訳(メタデータ) (2021-12-28T07:31:18Z) - TRACER: Extreme Attention Guided Salient Object Tracing Network [3.2434811678562676]
本稿では,注意誘導型トレーシングモジュールを組み込んで,鮮明なエッジで有意な物体を検出するTRACERを提案する。
13の既存手法との比較により、TRACERは5つのベンチマークデータセットで最先端のパフォーマンスを達成することが明らかになった。
論文 参考訳(メタデータ) (2021-12-14T13:20:07Z) - Analysis of voxel-based 3D object detection methods efficiency for
real-time embedded systems [93.73198973454944]
本稿では, ボクセルをベースとした2つの3次元物体検出手法について述べる。
実験の結果,これらの手法は入力点雲が遠距離にあるため,遠距離の小さな物体を検出できないことが確認できた。
この結果から,既存手法の計算のかなりの部分は,検出に寄与しないシーンの位置に着目していることが示唆された。
論文 参考訳(メタデータ) (2021-05-21T12:40:59Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。