論文の概要: SCSegamba: Lightweight Structure-Aware Vision Mamba for Crack Segmentation in Structures
- arxiv url: http://arxiv.org/abs/2503.01113v1
- Date: Mon, 03 Mar 2025 02:40:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:18:42.165424
- Title: SCSegamba: Lightweight Structure-Aware Vision Mamba for Crack Segmentation in Structures
- Title(参考訳): SCSegamba:軽量構造認識型視覚マンバ
- Authors: Hui Liu, Chen Jia, Fan Shi, Xu Cheng, Shengyong Chen,
- Abstract要約: 高品質な画素レベルのセグメンテーションマップを生成するために,SCSegamba(Structure-Aware Vision Mamba Network)を提案する。
具体的には、軽量なGated Bottleneck Convolution(GBC)とStructure-Aware Scanning Strategy(SASS)を組み合わせたSAVSS(Structure-Aware Visual State Space Module)を開発した。
クラックベンチマークを用いた実験により,本手法は他のSOTA法よりも優れており,パラメータが2.8Mで最高性能を達成できた。
- 参考スコア(独自算出の注目度): 29.224360412743454
- License:
- Abstract: Pixel-level segmentation of structural cracks across various scenarios remains a considerable challenge. Current methods encounter challenges in effectively modeling crack morphology and texture, facing challenges in balancing segmentation quality with low computational resource usage. To overcome these limitations, we propose a lightweight Structure-Aware Vision Mamba Network (SCSegamba), capable of generating high-quality pixel-level segmentation maps by leveraging both the morphological information and texture cues of crack pixels with minimal computational cost. Specifically, we developed a Structure-Aware Visual State Space module (SAVSS), which incorporates a lightweight Gated Bottleneck Convolution (GBC) and a Structure-Aware Scanning Strategy (SASS). The key insight of GBC lies in its effectiveness in modeling the morphological information of cracks, while the SASS enhances the perception of crack topology and texture by strengthening the continuity of semantic information between crack pixels. Experiments on crack benchmark datasets demonstrate that our method outperforms other state-of-the-art (SOTA) methods, achieving the highest performance with only 2.8M parameters. On the multi-scenario dataset, our method reached 0.8390 in F1 score and 0.8479 in mIoU. The code is available at https://github.com/Karl1109/SCSegamba.
- Abstract(参考訳): さまざまなシナリオにまたがる構造的ひび割れのピクセルレベルのセグメンテーションは依然として大きな課題である。
現在の手法では、クラック形態とテクスチャを効果的にモデル化する上で、セグメンテーション品質と低い計算資源使用量のバランスをとる上での課題に直面している。
これらの制約を克服するために,クラックピクセルの形態情報とテクスチャキューの両方を最小の計算コストで活用し,高品質な画素レベルのセグメンテーションマップを生成する軽量なStructure-Aware Vision Mamba Network (SCSegamba)を提案する。
具体的には、軽量なGated Bottleneck Convolution(GBC)とStructure-Aware Scanning Strategy(SASS)を組み合わせたSAVSS(Structure-Aware Visual State Space Module)を開発した。
GBCの鍵となる洞察は、ひび割れの形態的情報モデリングの有効性にある一方、SASSはひび割れのトポロジーとテクスチャの知覚を高め、ひび割れのピクセル間の意味情報の連続性を強化することである。
クラックベンチマークを用いた実験により,本手法は他のSOTA法よりも優れており,パラメータが2.8Mで最高性能を達成できた。
マルチセサリオデータセットでは,F1スコア0.8390,mIoU0.8479であった。
コードはhttps://github.com/Karl1109/SCSegambaで入手できる。
関連論文リスト
- MLLA-UNet: Mamba-like Linear Attention in an Efficient U-Shape Model for Medical Image Segmentation [6.578088710294546]
従来のセグメンテーション手法は、高い解剖学的変動、ぼやけた組織の境界、低い臓器コントラスト、ノイズといった課題に対処するのに苦労する。
MLLA-UNet(Mamba-like Linear Attention UNet)を提案する。
MLLA-UNetは、FLARE22、AMOS CT、ACDCに限らず、24の異なるセグメンテーションタスクを持つ6つの挑戦的なデータセットに対して、平均88.32%の最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2024-10-31T08:54:23Z) - Topology-aware Mamba for Crack Segmentation in Structures [5.9184143707401775]
マンバをベースとしたモデルであるCrackMambaは、インフラストラクチャの構造的健全性を監視するために、効率的で正確なクラックセグメンテーションのために設計されている。
CrackMambaは、VMambaV2をエンコーダと新しいデコーダとして、トレーニング済みのImageNet-1k重みで利用することで、これらの課題に対処している。
実験により、CrackMambaはCrackSeg9kおよびSwerCrackデータセット上での最先端(SOTA)パフォーマンスを実現し、網膜血管セグメンテーションデータセットCHASEunderlineDB1上での競合性能を示す。
論文 参考訳(メタデータ) (2024-10-25T15:17:52Z) - EfficientCrackNet: A Lightweight Model for Crack Segmentation [1.3689715712707347]
き裂検出は、建物、舗装、橋の構造的整合性を維持するために不可欠である。
既存の軽量な手法は、計算の非効率性、複雑な亀裂パターン、難易度などの課題に直面していることが多い。
本稿では,CNN(Convolutional Neural Networks)とトランスフォーマーを組み合わせた軽量ハイブリッドモデルであるEfficientCrackNetを提案する。
論文 参考訳(メタデータ) (2024-09-26T17:44:20Z) - Hybrid-Segmentor: A Hybrid Approach to Automated Fine-Grained Crack Segmentation in Civil Infrastructure [52.2025114590481]
エンコーダ・デコーダをベースとした手法であるHybrid-Segmentorを導入する。
これにより、モデルは、様々な種類の形状、表面、き裂の大きさを区別する一般化能力を向上させることができる。
提案モデルは,5つの測定基準(精度0.971,精度0.804,リコール0.744,F1スコア0.770,IoUスコア0.630)で既存ベンチマークモデルより優れ,最先端の状態を達成している。
論文 参考訳(メタデータ) (2024-09-04T16:47:16Z) - Staircase Cascaded Fusion of Lightweight Local Pattern Recognition and Long-Range Dependencies for Structural Crack Segmentation [28.157401919910914]
既存の手法では、クラックの局所的なテクスチャとピクセル依存を統合するのに苦労している。
本稿では,すべての畳み込み処理を代用する軽量な畳み込みブロックを提案する。
我々は,局所パターンと長距離依存性をシームレスに統合した階段列融合モジュールを開発した。
論文 参考訳(メタデータ) (2024-08-23T03:21:51Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Improving Pixel-based MIM by Reducing Wasted Modeling Capability [77.99468514275185]
浅い層から低レベルの特徴を明示的に利用して画素再構成を支援する手法を提案する。
私たちの知る限りでは、等方的アーキテクチャのためのマルチレベル特徴融合を体系的に研究するのは、私たちは初めてです。
提案手法は, 微調整では1.2%, 線形探索では2.8%, セマンティックセグメンテーションでは2.6%など, 大幅な性能向上をもたらす。
論文 参考訳(メタデータ) (2023-08-01T03:44:56Z) - Infrastructure Crack Segmentation: Boundary Guidance Method and
Benchmark Dataset [11.282003429161163]
本稿では, き裂の固有特性について検討し, き裂の識別に境界特性を導入する。
境界誘導クラックセグメンテーションモデル(BGCrack)を、高頻度モジュールを含むターゲット構造とモジュールで構築する。
本稿では, 鋼ひび割れの同定のための統一的, 公正なベンチマークを確立するための鋼ひび割れデータセットを提供する。
論文 参考訳(メタデータ) (2023-06-15T15:25:53Z) - Enhanced Sharp-GAN For Histopathology Image Synthesis [63.845552349914186]
病理組織像合成は、正確ながん検出のためのディープラーニングアプローチの訓練において、データ不足の問題に対処することを目的としている。
核トポロジと輪郭正則化を用いて合成画像の品質を向上させる新しい手法を提案する。
提案手法は、Sharp-GANを2つのデータセット上の4つの画像品質指標すべてで上回る。
論文 参考訳(メタデータ) (2023-01-24T17:54:01Z) - Bridging Component Learning with Degradation Modelling for Blind Image
Super-Resolution [69.11604249813304]
視覚障害者のためのコンポーネント分解・協調最適化ネットワーク(CDCN)を提案する。
CDCNは入力LR画像を特徴空間の構造と詳細成分に分解する。
本稿では,HR画像の細部と構造復元過程を協調的に監督する,劣化駆動型学習戦略を提案する。
論文 参考訳(メタデータ) (2022-12-03T14:53:56Z) - Retinal Image Segmentation with a Structure-Texture Demixing Network [62.69128827622726]
複雑な構造とテクスチャ情報は網膜画像に混在し、その情報の識別が困難である。
既存の手法はテクスチャと構造を共同で扱うため、偏りのあるモデルをテクスチャ認識に導くことができ、結果としてセグメンテーション性能は低下する。
本稿では,構造成分とテクスチャ成分を分離し,性能を大幅に向上させるセグメンテーション戦略を提案する。
論文 参考訳(メタデータ) (2020-07-15T12:19:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。