論文の概要: Spannotation: Enhancing Semantic Segmentation for Autonomous Navigation
with Efficient Image Annotation
- arxiv url: http://arxiv.org/abs/2402.18084v1
- Date: Wed, 28 Feb 2024 06:17:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 16:17:55.196456
- Title: Spannotation: Enhancing Semantic Segmentation for Autonomous Navigation
with Efficient Image Annotation
- Title(参考訳): 効率的な画像アノテーションによる自律ナビゲーションのための意味セグメンテーションの拡張
- Authors: Samuel O. Folorunsho and William R. Norris
- Abstract要約: 本研究は,Spannotationの評価を行い,精度の高いセグメンテーションマスクの創出の有効性を示した。
アクセシビリティ、シンプルなアノテーションプロセス、非コスト機能はすべて、Spannotationの採用に寄与している。
Spannotationの今後の拡張は、複雑なナビゲーションシナリオへのアプリケーションの拡大と、追加の自動化機能の追加を目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spannotation is an open source user-friendly tool developed for image
annotation for semantic segmentation specifically in autonomous navigation
tasks. This study provides an evaluation of Spannotation, demonstrating its
effectiveness in generating accurate segmentation masks for various
environments like agricultural crop rows, off-road terrains and urban roads.
Unlike other popular annotation tools that requires about 40 seconds to
annotate an image for semantic segmentation in a typical navigation task,
Spannotation achieves similar result in about 6.03 seconds. The tools utility
was validated through the utilization of its generated masks to train a U-Net
model which achieved a validation accuracy of 98.27% and mean Intersection Over
Union (mIOU) of 96.66%. The accessibility, simple annotation process and
no-cost features have all contributed to the adoption of Spannotation evident
from its download count of 2098 (as of February 25, 2024) since its launch.
Future enhancements of Spannotation aim to broaden its application to complex
navigation scenarios and incorporate additional automation functionalities.
Given its increasing popularity and promising potential, Spannotation stands as
a valuable resource in autonomous navigation and semantic segmentation. For
detailed information and access to Spannotation, readers are encouraged to
visit the project's GitHub repository at
https://github.com/sof-danny/spannotation
- Abstract(参考訳): Spannotationは、特に自律的なナビゲーションタスクにおいてセマンティックセグメンテーションのためのイメージアノテーションのために開発された、オープンソースのユーザフレンドリーなツールである。
本研究は, 農作物列, オフロード地形, 都市道路など, 様々な環境において, 正確なセグメンテーションマスクの生成に有効であることを示す。
一般的なナビゲーションタスクでセマンティックセグメンテーションのために画像にアノテートするのに約40秒を要する他の一般的なアノテーションツールとは異なり、Spannotationは同様の結果を約6.03秒で達成する。
このツールの効用は、生成されたマスクを使用して、検証精度98.27%、平均インターセクションオーバーユニオン96.66%のU-Netモデルを訓練することで検証された。
アクセシビリティ、シンプルなアノテーションプロセス、そしてコストのかかる機能はすべて、2098年のダウンロード数(2024年2月25日現在)から明らかなSpannotationの採用に寄与している。
Spannotationの今後の拡張は、複雑なナビゲーションシナリオへのアプリケーションの拡大と、さらなる自動化機能の追加を目的としている。
Spannotationは、その人気と将来性を考えると、自律的なナビゲーションとセマンティックセグメンテーションにおいて貴重なリソースである。
詳細な情報とSpannotationへのアクセスについては、https://github.com/sof-danny/spannotationでプロジェクトのGitHubリポジトリを参照してほしい。
関連論文リスト
- Learning Spatial-Semantic Features for Robust Video Object Segmentation [108.045326229865]
空間意味的特徴と識別的オブジェクトクエリを備えたロバストなビデオオブジェクトセグメンテーションフレームワークを提案する。
提案手法は,複数のデータセットに対して新しい最先端性能を設定できることを示す。
論文 参考訳(メタデータ) (2024-07-10T15:36:00Z) - Auxiliary Tasks Enhanced Dual-affinity Learning for Weakly Supervised
Semantic Segmentation [79.05949524349005]
AuxSegNet+は、サリエンシマップから豊富な情報を探索する弱教師付き補助学習フレームワークである。
また,サリエンシとセグメンテーションの特徴マップから画素レベルの親和性を学習するためのクロスタスク親和性学習機構を提案する。
論文 参考訳(メタデータ) (2024-03-02T10:03:21Z) - Learning Semantic Segmentation with Query Points Supervision on Aerial Images [57.09251327650334]
セマンティックセグメンテーションアルゴリズムを学習するための弱教師付き学習アルゴリズムを提案する。
提案手法は正確なセマンティックセグメンテーションを行い,手作業のアノテーションに要するコストと時間を大幅に削減することで効率を向上する。
論文 参考訳(メタデータ) (2023-09-11T14:32:04Z) - Semantics Meets Temporal Correspondence: Self-supervised Object-centric Learning in Videos [63.94040814459116]
自己教師付き手法は、高レベルの意味論と低レベルの時間対応の学習において顕著な進歩を見せている。
融合した意味特徴と対応地図の上に,意味認識型マスキングスロットアテンションを提案する。
我々は、時間的コヒーレントなオブジェクト中心表現を促進するために、セマンティックおよびインスタンスレベルの時間的一貫性を自己スーパービジョンとして採用する。
論文 参考訳(メタデータ) (2023-08-19T09:12:13Z) - EISeg: An Efficient Interactive Segmentation Tool based on PaddlePaddle [7.588694189597639]
EISegは,画像分割アノテーションの効率を大幅に改善できるインタラクティブSEGmentationアノテーションツールである。
また、リモートセンシング、医用イメージング、産業品質検査、人間のセグメンテーション、ビデオセグメンテーションのための時間認識モデルなど、さまざまなドメイン固有モデルを提供する。
論文 参考訳(メタデータ) (2022-10-17T07:12:13Z) - DecoupleNet: Decoupled Network for Domain Adaptive Semantic Segmentation [78.30720731968135]
セマンティックセグメンテーションにおける教師なしドメイン適応は、高価なピクセル単位のアノテーションへの依存を軽減するために提起されている。
我々は、ソースドメインのオーバーフィットを軽減し、最終的なモデルをセグメント化タスクに集中できるようにするDecoupleNetを提案する。
我々はまた、自己識別(SD)を推進し、擬似ラベルでより識別可能なターゲットドメイン特徴を学習するための補助分類器を導入した。
論文 参考訳(メタデータ) (2022-07-20T15:47:34Z) - Learning Using Privileged Information for Zero-Shot Action Recognition [15.9032110752123]
本稿では,オブジェクトのセマンティクスを特権情報として利用し,セマンティクスのギャップを狭める手法を提案する。
オリンピック・スポーツ、HMDB51、UCF101データセットの実験では、提案手法が最先端の手法よりも大きなマージンで優れていることが示されている。
論文 参考訳(メタデータ) (2022-06-17T08:46:09Z) - Abstract Flow for Temporal Semantic Segmentation on the Permutohedral
Lattice [27.37701107719647]
バックボーンのLatticeNetを拡張して、時間的ポイントクラウドデータを処理します。
我々は,ネットワークがシーンの一部に類似した抽象的な特徴を持たせるための抽象フローという新しいモジュールを提案する。
我々は,実都市環境からのLiDARスキャンを含むSemantic KITTIデータセットの最先端結果を得た。
論文 参考訳(メタデータ) (2022-03-29T12:14:31Z) - Rethinking Interactive Image Segmentation: Feature Space Annotation [68.8204255655161]
本稿では,特徴空間投影による複数画像からの対話的・同時セグメントアノテーションを提案する。
本手法は,前景セグメンテーションデータセットにおける最先端手法の精度を上回ることができることを示す。
論文 参考訳(メタデータ) (2021-01-12T10:13:35Z) - Unsupervised segmentation via semantic-apparent feature fusion [21.75371777263847]
本研究では,意味親和性特徴融合(SAFF)に基づく教師なし前景セグメンテーション手法を提案する。
前景オブジェクトのキー領域はセマンティック機能によって正確に応答できる。
意味的特徴と明らかな特徴を融合させ、画像内適応的特徴量学習と画像間共通特徴学習のモジュールをカスケードすることにより、ベースラインをはるかに超える性能を達成する。
論文 参考訳(メタデータ) (2020-05-21T08:28:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。