論文の概要: Unsupervised Modular Adaptive Region Growing and RegionMix Classification for Wind Turbine Segmentation
- arxiv url: http://arxiv.org/abs/2601.04065v1
- Date: Wed, 07 Jan 2026 16:29:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-08 18:12:46.214023
- Title: Unsupervised Modular Adaptive Region Growing and RegionMix Classification for Wind Turbine Segmentation
- Title(参考訳): 風車セグメンテーションのための教師なしモジュール適応領域成長とリージョンミクス分類
- Authors: Raül Pérez-Gonzalo, Riccardo Magro, Andreas Espersen, Antonio Agudo,
- Abstract要約: 本稿では,画素レベルのタスクを2値領域分類問題に再編成するアノテーション効率のセグメンテーション手法を提案する。
本フレームワークは,タービンブレードを異なる風洞に連続的に分割することで,最先端のセグメンテーション精度と強力なクロスサイト一般化を実証する。
- 参考スコア(独自算出の注目度): 16.5765528068118
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Reliable operation of wind turbines requires frequent inspections, as even minor surface damages can degrade aerodynamic performance, reduce energy output, and accelerate blade wear. Central to automating these inspections is the accurate segmentation of turbine blades from visual data. This task is traditionally addressed through dense, pixel-wise deep learning models. However, such methods demand extensive annotated datasets, posing scalability challenges. In this work, we introduce an annotation-efficient segmentation approach that reframes the pixel-level task into a binary region classification problem. Image regions are generated using a fully unsupervised, interpretable Modular Adaptive Region Growing technique, guided by image-specific Adaptive Thresholding and enhanced by a Region Merging process that consolidates fragmented areas into coherent segments. To improve generalization and classification robustness, we introduce RegionMix, an augmentation strategy that synthesizes new training samples by combining distinct regions. Our framework demonstrates state-of-the-art segmentation accuracy and strong cross-site generalization by consistently segmenting turbine blades across distinct windfarms.
- Abstract(参考訳): 風力タービンの信頼性の高い運転には、小さな表面損傷でさえ空気力学的性能を低下させ、エネルギー出力を減少させ、ブレード摩耗を加速させるため、頻繁な検査が必要である。
これらの検査の自動化の中心は、視覚データからタービンブレードの正確なセグメンテーションである。
このタスクは伝統的に、密度の高いピクセル単位のディープラーニングモデルによって対処される。
しかし、このような手法は広範囲な注釈付きデータセットを必要とし、スケーラビリティの課題を提起する。
本研究では,画素レベルのタスクを2値領域分類問題に再編成するアノテーション効率のセグメンテーション手法を提案する。
画像領域は、画像固有の適応閾値でガイドされ、断片化された領域をコヒーレントセグメントに集約する領域マージプロセスによって強化される、完全に教師なし、解釈可能なモジュール適応領域成長技術を用いて生成される。
一般化と分類の堅牢性を改善するため,異なる領域を組み合わせることで新たなトレーニングサンプルを合成するAugmentation StrategyであるRegionalMixを導入する。
本フレームワークは,タービン羽根を異なる風洞に連続的に分断することで,最先端の分断精度と強いクロスサイト一般化を実証する。
関連論文リスト
- Graph Laplacian Transformer with Progressive Sampling for Prostate Cancer Grading [2.9485900021889146]
本稿では,特徴学習と空間整合性の両立を図るために,反復リファインメントモジュール (IRM) と統合されたグラフラプラシアンアテンションベーストランス (GLAT) を提案する。
IRMは、事前訓練されたResNet50を局所的特徴抽出に利用し、重要なスコアリングのために、非段階的なモードで基礎モデルを活用することにより、パッチ選択を反復的に洗練する。
GLATは、パッチがノードとして機能するグラフを構築し、グラフラプラシアン制約による空間的一貫性を確保することによって、組織レベルの接続をモデル化する。
論文 参考訳(メタデータ) (2025-12-11T16:55:57Z) - RefAM: Attention Magnets for Zero-Shot Referral Segmentation [103.98022860792504]
本稿では,下流タスクの拡散変換器から特徴,注意点を活用できる新しい手法を提案する。
重要な洞察は、停止語は注意磁石として機能するということだ。
停止語を付加した背景アクティベーションを小さなクラスタに分割するアテンション再分配戦略を提案する。
論文 参考訳(メタデータ) (2025-09-26T17:59:57Z) - Morphology-optimized Multi-Scale Fusion: Combining Local Artifacts and Mesoscopic Semantics for Deepfake Detection and Localization [30.871239863769404]
一般的な戦略は、操作されたイメージとともに、モデルトレーニング中に偽のリージョンアノテーションを組み込むことである。
本研究では,局所的視点と大域的視点の両方を用いて操作された領域を独立に予測する手法を提案する。
論文 参考訳(メタデータ) (2025-09-17T07:46:07Z) - EMRA-proxy: Enhancing Multi-Class Region Semantic Segmentation in Remote Sensing Images with Attention Proxy [2.3727914512000714]
本稿では,CRA (Contextual Region Attention) とGCR (Global Class Refinement) の2つのコンポーネントからなる新しいアプローチであるRegional-Aware Proxy Network (RAPNet)を提案する。
RAPNetは、より柔軟なセグメンテーションのために、リージョンレベルで動作している。
3つの公開データセットの実験では、RAPNetは最先端の手法よりも優れ、より優れたマルチクラスのセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2025-05-23T09:30:45Z) - Zooming In on Fakes: A Novel Dataset for Localized AI-Generated Image Detection with Forgery Amplification Approach [69.01456182499486]
textbfBR-Genは、さまざまなシーン認識アノテーションを備えた15万のローカル鍛造イメージの大規模なデータセットである。
textbfNFA-ViTはノイズ誘導フォージェリ増幅ビジョン変換器で、ローカライズされたフォージェリの検出を強化する。
論文 参考訳(メタデータ) (2025-04-16T09:57:23Z) - Contrastive Region Guidance: Improving Grounding in Vision-Language
Models without Training [79.27663870280038]
Contrastive Region Guidance (CRG) は、オープンソースの視覚言語モデルで視覚的プロンプトに応答できる訓練不要のガイダンス手法である。
領域アノテーションが提供されると、CRGはViP-Benchで最大11.1%精度が向上する。
また,空間推論へのCRGの適用性を示すとともに,What'sUpでは10%の改善が見られた。
論文 参考訳(メタデータ) (2024-03-04T18:55:30Z) - Exploiting Regional Information Transformer for Single Image Deraining [40.96287901893822]
Region Transformer Block (RTB) は Region Masked Attention (RMA) 機構と Mixed Gate Forward Block (MGFB) を統合している
我々のモデルは最先端の性能に到達し、画像劣化の品質を著しく向上させる。
論文 参考訳(メタデータ) (2024-02-25T09:09:30Z) - Progressive Feature Self-reinforcement for Weakly Supervised Semantic
Segmentation [55.69128107473125]
Weakly Supervised Semantic (WSSS) のイメージレベルラベルを用いたシングルステージアプローチを提案する。
我々は、画像内容が決定論的領域(例えば、自信ある前景と背景)と不確実領域(例えば、オブジェクト境界と誤分類されたカテゴリ)に適応的に分割して、別々の処理を行う。
そこで我々は,これらの自信のある領域と同一のクラスラベルを持つ拡張画像とのセマンティック一貫性を制約する補完的な自己強調手法を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:21:52Z) - DCN-T: Dual Context Network with Transformer for Hyperspectral Image
Classification [109.09061514799413]
複雑な撮像条件による空間変動のため,HSI分類は困難である。
本稿では,HSIを高品質な三スペクトル画像に変換する三スペクトル画像生成パイプラインを提案する。
提案手法は,HSI分類における最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-04-19T18:32:52Z) - Co-visual pattern augmented generative transformer learning for
automobile geo-localization [12.449657263683337]
クロスビュージオローカライゼーション(CVGL)は、地上カメラの地理的位置を、巨大なジオタグ付き空中画像とマッチングすることによって推定することを目的としている。
CVGLのための相互生成型トランスフォーマー学習(MGTL)という,トランスフォーマーと組み合わせたクロスビュー知識生成技術を用いた新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-17T07:29:02Z) - Local Relation Learning for Face Forgery Detection [73.73130683091154]
局所的関係学習による顔の偽造検出の新たな視点を提案する。
具体的には,局所的な特徴間の類似度を測定するMPSM(Multi-scale Patch similarity Module)を提案する。
また、より包括的な局所特徴表現のために、RGBおよび周波数領域の情報を融合するRGB-Frequency Attention Module (RFAM)を提案する。
論文 参考訳(メタデータ) (2021-05-06T10:44:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。