論文の概要: TwinLiteNetPlus: A Stronger Model for Real-time Drivable Area and Lane Segmentation
- arxiv url: http://arxiv.org/abs/2403.16958v1
- Date: Mon, 25 Mar 2024 17:17:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 20:24:47.957766
- Title: TwinLiteNetPlus: A Stronger Model for Real-time Drivable Area and Lane Segmentation
- Title(参考訳): TwinLiteNetPlus: リアルタイム乾燥地域とレーンセグメンテーションのためのより強力なモデル
- Authors: Quang-Huy Che, Duc-Tri Le, Minh-Quan Pham, Vinh-Tiep Nguyen, Duc-Khai Lam,
- Abstract要約: 本稿では,現在最先端(SOTA)モデルの高計算コストに対応するため,TwinLiteNetPlusを提案する。
TwinLiteNetPlusは、標準および深さ的に分離可能な拡張畳み込みを導入し、高い精度を維持しながら複雑さを低減している。
- 参考スコア(独自算出の注目度): 1.1027204173383738
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Semantic segmentation is crucial for autonomous driving, particularly for Drivable Area and Lane Segmentation, ensuring safety and navigation. To address the high computational costs of current state-of-the-art (SOTA) models, this paper introduces TwinLiteNetPlus (TwinLiteNet$^+$), a model adept at balancing efficiency and accuracy. TwinLiteNet$^+$ incorporates standard and depth-wise separable dilated convolutions, reducing complexity while maintaining high accuracy. It is available in four configurations, from the robust 1.94 million-parameter TwinLiteNet$^+_{\text{Large}}$ to the ultra-compact 34K-parameter TwinLiteNet$^+_{\text{Nano}}$. Notably, TwinLiteNet$^+_{\text{Large}}$ attains a 92.9\% mIoU for Drivable Area Segmentation and a 34.2\% IoU for Lane Segmentation. These results notably outperform those of current SOTA models while requiring a computational cost that is approximately 11 times lower in terms of Floating Point Operations (FLOPs) compared to the existing SOTA model. Extensively tested on various embedded devices, TwinLiteNet$^+$ demonstrates promising latency and power efficiency, underscoring its suitability for real-world autonomous vehicle applications.
- Abstract(参考訳): セマンティックセグメンテーションは自動運転、特にDrivable AreaとLane Segmentationにとって重要であり、安全とナビゲーションを確保する。
現状技術(SOTA)モデルの高計算コストに対処するため,効率と精度のバランスに優れたモデルであるTwinLiteNetPlus(TwinLiteNet$^+$)を提案する。
TwinLiteNet$^+$は、標準および深さ的に分離可能な拡張畳み込みを導入し、高い精度を維持しながら複雑さを減少させる。
これは、ロバストな1.94百万パラメータのTwinLiteNet$^+_{\text{Large}}$から、超コンパクトな34KパラメータのTwinLiteNet$^+_{\text{Nano}}$まで、4つの構成で利用できる。
特に、TwinLiteNet$^+_{\text{Large}}$は、乾燥領域セグメンテーションの92.9\% mIoU、レーンセグメンテーションの34.2\% IoUに達する。
これらの結果は、既存のSOTAモデルと比較して、浮動小数点演算(FLOP)の約11倍の計算コストを必要とする一方で、現在のSOTAモデルよりも優れています。
TwinLiteNet$^+$は、様々な組み込みデバイスで広くテストされている。
関連論文リスト
- NuLite -- Lightweight and Fast Model for Nuclei Instance Segmentation and Classification [4.2193475197905705]
病理学では、ヘマトキシリンとエオシン(H&E)スライドの正確かつ効率的な解析は、タイムリーかつ効果的ながん診断に不可欠である。
我々は,SOTA(State-of-the-art)軽量CNNであるFast-ViT上に明示的に設計された,新しい畳み込みニューラルネットワークであるNuLiteを導入する。
我々は、PanNukeデータセットでトレーニングしたNuLite-S、NuLite-M、NuLite-Hの3つのモデルを得た。実験結果、我々のモデルは、汎視的品質と検出の点でCellViT(SOTA)と同等であることが証明された。
論文 参考訳(メタデータ) (2024-08-03T14:48:34Z) - Dense Training, Sparse Inference: Rethinking Training of Mixture-of-Experts Language Models [62.4691912312317]
Mixture-of-Experts (MoE)言語モデルは、性能を犠牲にすることなく、高密度モデルと比較して計算コストを2~4ドル削減することができる。
本稿では,強力な計算とパラメータ効率を実現するMOEモデル(DS-MoE)のためのハイブリッド密集型トレーニングおよびスパース推論フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-08T14:39:49Z) - ParFormer: A Vision Transformer with Parallel Mixer and Sparse Channel Attention Patch Embedding [9.144813021145039]
本稿では、並列ミキサーとスパースチャネル注意パッチ埋め込み(SCAPE)を組み込んだ視覚変換器であるParFormerを紹介する。
ParFormerは、畳み込み機構とアテンション機構を組み合わせることで、特徴抽出を改善する。
エッジデバイスのデプロイメントでは、ParFormer-Tのスループットは278.1イメージ/秒で、EdgeNeXt-Sよりも1.38ドル高い。
より大型のParFormer-Lは83.5%のTop-1精度に達し、精度と効率のバランスの取れたトレードオフを提供する。
論文 参考訳(メタデータ) (2024-03-22T07:32:21Z) - Fully $1\times1$ Convolutional Network for Lightweight Image
Super-Resolution [79.04007257606862]
ディープモデルは、シングルイメージ超解像(SISR)タスク、特に大きなカーネルを持つ大きなモデル(3時間3ドル以上)において重要なプロセスを持つ。
$1times1$の畳み込みは計算効率を大幅に向上させるが、局所的な空間表現の集約に苦労する。
我々は、Shift-Conv-based Network (SCNet) という、シンプルで効果的な1時間1ドルの畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2023-07-30T06:24:03Z) - TwinLiteNet: An Efficient and Lightweight Model for Driveable Area and
Lane Segmentation in Self-Driving Cars [0.0]
本稿では、駆動可能領域と車線分割のための軽量モデルを提案する。
BDD100Kデータセット上でTwinLiteNetを評価し,最新のモデルと比較した。
具体的には、TwinLiteNetは、乾燥領域タスクで91.3%、レーン検出タスクで31.08%のIoUというmIoUスコアを達成している。
論文 参考訳(メタデータ) (2023-07-20T08:53:47Z) - 1M parameters are enough? A lightweight CNN-based model for medical
image segmentation [0.4129225533930966]
軽量なU-Netベースのモデルを模索しており、同じ状態を維持したり、より優れたパフォーマンス、すなわちU-Liteを実現できます。
我々は,CNNの強みを生かし,演算パラメータの著しい削減を図るために,Depthwise Separable Convolutionの原理に基づいてU-Liteを設計する。
全体として、U-Lite は 878K のパラメータしか持たず、従来の U-Net の35倍も小さく、現代の Transformer ベースのモデルよりもはるかに少ない。
論文 参考訳(メタデータ) (2023-06-28T11:17:37Z) - Lightweight and Progressively-Scalable Networks for Semantic
Segmentation [100.63114424262234]
マルチスケール学習フレームワークは,セマンティックセグメンテーションを向上する有効なモデルのクラスと見なされてきた。
本稿では,畳み込みブロックの設計と,複数スケールにわたる相互作用の仕方について,徹底的に解析する。
我々は,軽量で拡張性の高いネットワーク(LPS-Net)を考案した。
論文 参考訳(メタデータ) (2022-07-27T16:00:28Z) - SFNet: Faster and Accurate Semantic Segmentation via Semantic Flow [88.97790684009979]
性能を改善するための一般的な実践は、強力な意味表現を持つ高解像度の特徴写像を得ることである。
隣接レベルの特徴マップ間のテキストセマンティックフローを学習するためのフローアライメントモジュール(FAM)を提案する。
また,高分解能特徴写像と低分解能特徴写像を直接整列するGated Dual Flow Alignment Moduleを提案する。
論文 参考訳(メタデータ) (2022-07-10T08:25:47Z) - EdgeNeXt: Efficiently Amalgamated CNN-Transformer Architecture for
Mobile Vision Applications [68.35683849098105]
入力テンソルを複数のチャネルグループに分割するSDTAエンコーダを導入する。
1.3Mパラメータを持つEdgeNeXtモデルでは、ImageNet-1Kで71.2%のTop-1精度を実現している。
パラメータ5.6MのEdgeNeXtモデルでは、ImageNet-1Kで79.4%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2022-06-21T17:59:56Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Dense Dual-Path Network for Real-time Semantic Segmentation [7.8381744043673045]
本稿では,資源制約下でのリアルタイムセマンティックセグメンテーションのための新しいDual-Path Network(DDPNet)を提案する。
DDPNetは、GTX 1080Tiカードの1024 X 2048解像度の入力に対して52.6 FPSで75.3% mIoUを達成した。
論文 参考訳(メタデータ) (2020-10-21T06:11:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。