論文の概要: PaveSAM Segment Anything for Pavement Distress
- arxiv url: http://arxiv.org/abs/2409.07295v1
- Date: Wed, 11 Sep 2024 14:24:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-12 14:13:20.326195
- Title: PaveSAM Segment Anything for Pavement Distress
- Title(参考訳): PaveSAM Segment Anything for Pavement Distress
- Authors: Neema Jakisa Owor, Yaw Adu-Gyamfi, Armstrong Aboah, Mark Amo-Boateng,
- Abstract要約: コンピュータビジョンを用いた舗装モニタリングは、手動の方法よりも効率的に正確に舗装条件を分析することができる。
しかし、ディープラーニングベースのセグメンテーションモデルは、しばしば教師付きであり、ピクセルレベルのアノテーションを必要とする。
本研究では,ゼロショット分割モデルPaveSAMを提案する。
- 参考スコア(独自算出の注目度): 4.671701998390791
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Automated pavement monitoring using computer vision can analyze pavement conditions more efficiently and accurately than manual methods. Accurate segmentation is essential for quantifying the severity and extent of pavement defects and consequently, the overall condition index used for prioritizing rehabilitation and maintenance activities. Deep learning-based segmentation models are however, often supervised and require pixel-level annotations, which can be costly and time-consuming. While the recent evolution of zero-shot segmentation models can generate pixel-wise labels for unseen classes without any training data, they struggle with irregularities of cracks and textured pavement backgrounds. This research proposes a zero-shot segmentation model, PaveSAM, that can segment pavement distresses using bounding box prompts. By retraining SAM's mask decoder with just 180 images, pavement distress segmentation is revolutionized, enabling efficient distress segmentation using bounding box prompts, a capability not found in current segmentation models. This not only drastically reduces labeling efforts and costs but also showcases our model's high performance with minimal input, establishing the pioneering use of SAM in pavement distress segmentation. Furthermore, researchers can use existing open-source pavement distress images annotated with bounding boxes to create segmentation masks, which increases the availability and diversity of segmentation pavement distress datasets.
- Abstract(参考訳): コンピュータビジョンを用いた自動舗装監視は、手動の手法よりも効率的に正確に舗装条件を解析することができる。
正確なセグメンテーションは、舗装欠陥の重症度と程度を定量化するために必要であり、その結果、リハビリテーションとメンテナンス活動の優先順位付けに使用される全体的な状態指標となる。
しかし、ディープラーニングベースのセグメンテーションモデルは、しばしば監督され、コストと時間を要するピクセルレベルのアノテーションを必要とする。
ゼロショットセグメンテーションモデルの最近の進化は、トレーニングデータのない未確認クラスのピクセルワイドラベルを生成することができるが、それらはひび割れやテクスチャ化された舗装の背景の不規則さに悩まされている。
本研究では,ゼロショット分割モデルPaveSAMを提案する。
SAMのマスクデコーダを180枚の画像で再トレーニングすることで、舗装救難セグメンテーションが革新され、現在のセグメンテーションモデルでは見られないバウンディングボックスプロンプトを使った効率的な救難セグメンテーションが可能になる。
これはラベル作成の労力とコストを大幅に削減するだけでなく、最小限の入力で我々のモデルの性能を示す。
さらに、研究者は、バウンディングボックスにアノテートされた既存のオープンソース舗装救難画像を使用して、セグメンテーションマスクを作成することで、セグメンテーション舗装救難データセットの可用性と多様性を高めることができる。
関連論文リスト
- Distribution-aware Noisy-label Crack Segmentation [4.224255134206838]
本稿では,Segment Anything Model(SAM)の一般的な知識をひび割れセグメンテーションに取り入れたSAM-Adapterを紹介する。
SAM-Adapterの有効性は、小さなトレーニングセット内のノイズラベルによって制約される。
本稿では,SAM-Adapterの識別学習プロセスを導くために,分布認識ドメイン固有の意味知識を活用する,革新的な共同学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-12T07:29:47Z) - Physically Feasible Semantic Segmentation [58.17907376475596]
最先端セマンティックセグメンテーションモデルは通常、データ駆動方式で最適化される。
本手法は,空間的クラス関係を規定する明示的な物理的制約を抽出する。
PhyFeaは、使用する最先端ネットワーク毎にmIoUが大幅に向上する。
論文 参考訳(メタデータ) (2024-08-26T22:39:08Z) - Weakly Supervised Semantic Segmentation for Driving Scenes [27.0285166404621]
弱教師付きセマンティックセグメンテーション(WSSS)における最先端技術は、駆動シーンデータセットに深刻な性能劣化を示す。
シーンデータセットの駆動に適した新しいWSSSフレームワークを開発した。
論文 参考訳(メタデータ) (2023-12-21T08:16:26Z) - SegPrompt: Using Segmentation Map as a Better Prompt to Finetune Deep
Models for Kidney Stone Classification [62.403510793388705]
深層学習は、内視鏡画像を用いた腎臓結石分類のための奨励的な結果を生み出している。
注釈付きトレーニングデータの不足は、トレーニングされたモデルの性能と一般化能力を改善する上で深刻な問題を引き起こす。
本稿では,セグメンテーションマップを2つの側面から活用することにより,データ不足問題を軽減するためにSegPromptを提案する。
論文 参考訳(メタデータ) (2023-03-15T01:30:48Z) - SlimSeg: Slimmable Semantic Segmentation with Boundary Supervision [54.16430358203348]
本稿では,単純なスリム化可能なセマンティックセマンティックセマンティクス(SlimSeg)法を提案する。
提案するSlimSegは,様々な主流ネットワークを用いて,計算コストの動的調整と性能向上を実現するフレキシブルなモデルを生成することができることを示す。
論文 参考訳(メタデータ) (2022-07-13T14:41:05Z) - Deep Spectral Methods: A Surprisingly Strong Baseline for Unsupervised
Semantic Segmentation and Localization [98.46318529630109]
画像分解をグラフ分割問題として再フレーミングすることで,従来のスペクトル分割法から着想を得た。
これらの固有ベクトルはすでにイメージを意味のあるセグメントに分解しており、シーン内のオブジェクトのローカライズに容易に利用できる。
データセットにまたがるこれらのセグメントに関連する機能をクラスタ化することで、明確に定義された、名前付き可能なリージョンを得ることができる。
論文 参考訳(メタデータ) (2022-05-16T17:47:44Z) - An Active and Contrastive Learning Framework for Fine-Grained Off-Road
Semantic Segmentation [7.035838394813961]
自動運転車が運転シーンを理解するためには、詳細なラベル付きオフロードセマンティックセマンティックセマンティックセマンティクスが必要である。
オフロードシーンにおける微粒なセマンティックセグメンテーションは通常、あいまいな自然環境のために統一されたカテゴリ定義を持たない。
本研究では,画素単位のラベルに依存しない能動的かつ対照的な学習手法を提案する。
論文 参考訳(メタデータ) (2022-02-18T03:16:31Z) - Points2Polygons: Context-Based Segmentation from Weak Labels Using
Adversarial Networks [0.0]
画像セグメンテーションタスクでは、多数の正確なラベルをトレーニング用に提供できる能力は、推論時のモデルの精度に最優先される。
このオーバヘッドは無視されることが多く、最近提案されたセグメンテーションアーキテクチャは、最先端のアキュラシーを達成するために、基底真理ラベルの可用性と忠実さに大きく依存している。
本稿では,P2P(Points2Polygons,P2P)を紹介する。
論文 参考訳(メタデータ) (2021-06-05T05:17:45Z) - Self-supervised Segmentation via Background Inpainting [96.10971980098196]
移動可能なカメラで撮影された単一の画像で、自己教師付き検出とセグメンテーションのアプローチを導入する。
我々は、提案に基づくセグメンテーションネットワークのトレーニングに利用する自己教師付き損失関数を利用する。
本手法は,標準ベンチマークから視覚的に切り離された画像の人間の検出とセグメント化に応用し,既存の自己監督手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-11T08:34:40Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z) - Deep Machine Learning Approach to Develop a New Asphalt Pavement
Condition Index [0.0]
近年、ディープラーニングの進歩により、先例のない精度で舗装画像を分析するための堅牢なツールが開発されている。
ディープラーニングモデルは大きな真実データセットを必要とするが、舗装現場ではアクセスできないことが多い。
本研究では,より堅牢で容易に配置可能な舗装条件評価システムに向けた第一歩として,ラベル付き舗装データセットを提示した前回の研究をレビューした。
論文 参考訳(メタデータ) (2020-04-28T05:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。