論文の概要: UMSPU: Universal Multi-Size Phase Unwrapping via Mutual Self-Distillation and Adaptive Boosting Ensemble Segmenters
- arxiv url: http://arxiv.org/abs/2412.05584v1
- Date: Sat, 07 Dec 2024 08:38:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:57:40.499945
- Title: UMSPU: Universal Multi-Size Phase Unwrapping via Mutual Self-Distillation and Adaptive Boosting Ensemble Segmenters
- Title(参考訳): UMSPU: 相互自己蒸留とアダプティブブースティング・アンサンブルセグメンタによるユニバーサルマルチサイズフェイズアンラッピング
- Authors: Lintong Du, Huazhen Liu, Yijia Zhang, ShuXin Liu, Yuan Qu, Zenghui Zhang, Jiamiao Yang,
- Abstract要約: UMSPU(Universal Multi-Size Phase Unwrapping Network)を構築するために,相互自己蒸留機構と適応的なアンサンブルセグメンタを提案する。
実験結果から,UMSPUは画像サイズ制限を克服し,256*256から2048*2048までの画像サイズ(8倍)の高精度化を実現していることがわかった。
- 参考スコア(独自算出の注目度): 5.555733402087228
- License:
- Abstract: Spatial phase unwrapping is a key technique for extracting phase information to obtain 3D morphology and other features. Modern industrial measurement scenarios demand high precision, large image sizes, and high speed. However, conventional methods struggle with noise resistance and processing speed. Current deep learning methods are limited by the receptive field size and sparse semantic information, making them ineffective for large size images. To address this issue, we propose a mutual self-distillation (MSD) mechanism and adaptive boosting ensemble segmenters to construct a universal multi-size phase unwrapping network (UMSPU). MSD performs hierarchical attention refinement and achieves cross-layer collaborative learning through bidirectional distillation, ensuring fine-grained semantic representation across image sizes. The adaptive boosting ensemble segmenters combine weak segmenters with different receptive fields into a strong one, ensuring stable segmentation across spatial frequencies. Experimental results show that UMSPU overcomes image size limitations, achieving high precision across image sizes ranging from 256*256 to 2048*2048 (an 8 times increase). It also outperforms existing methods in speed, robustness, and generalization. Its practicality is further validated in structured light imaging and InSAR. We believe that UMSPU offers a universal solution for phase unwrapping, with broad potential for industrial applications.
- Abstract(参考訳): 空間位相アンラッピングは、位相情報を抽出して3次元形態学やその他の特徴を得るための重要な手法である。
現代の産業計測シナリオでは、高精度、画像サイズ、高速が要求される。
しかし,従来の手法は耐雑音性や処理速度に苦慮している。
現在のディープラーニング手法は、受容的なフィールドサイズとスパースなセマンティック情報によって制限されており、大規模な画像には効果がない。
この問題に対処するために,相互自己蒸留(MSD)機構と適応的なアンサンブルセグメンタを提案し,UMSPU(Universal Multi-Size Phase Unwrapping Network)を構築する。
MSDは階層的注意改善を行い、双方向蒸留による層間協調学習を実現し、画像サイズ全体にわたって微細なセマンティック表現を確実にする。
適応的な強化アンサンブルセグナーは、異なる受容場を持つ弱いセグナーを強いセグナーに結合し、空間周波数にわたって安定したセグメンテーションを確保する。
実験の結果,UMSPUは画像サイズ制限を克服し,256*256から2048*2048までの画像サイズ(8倍)の精度を実現していることがわかった。
また、速度、堅牢性、一般化において既存の手法よりも優れている。
その実用性は、構造化光イメージングとInSARでさらに検証されている。
UMSPUは、産業アプリケーションに幅広い可能性を持つ、フェーズアンラッピングのための普遍的なソリューションを提供する、と私たちは信じています。
関連論文リスト
- Leveraging Adaptive Implicit Representation Mapping for Ultra High-Resolution Image Segmentation [19.87987918759425]
入射表現マッピング(IRM)は、画像特徴を任意の連続分解能に変換することができ、超高分解能画像分割精細化のための強力な能力を示す。
IRMをベースとした現在の超高解像度画像分割法は、画像の特徴を抽出するためにCNNベースのエンコーダに依存することが多い。
超高解像度イメージ関数に対して,新たに提案したImplicit Representation Mapping (AIRM) を利用した新しい手法を提案する。
論文 参考訳(メタデータ) (2024-07-31T00:34:37Z) - Multi-scale Unified Network for Image Classification [33.560003528712414]
CNNは、実世界のマルチスケール画像入力を扱う際に、性能と計算効率において顕著な課題に直面している。
本稿では,マルチスケール,統一ネットワーク,スケール不変制約からなるMultiscale Unified Network(MUSN)を提案する。
MUSNは精度が44.53%向上し、マルチスケールシナリオではFLOPを7.01-16.13%減少させる。
論文 参考訳(メタデータ) (2024-03-27T06:40:26Z) - Real-Time Image Segmentation via Hybrid Convolutional-Transformer Architecture Search [49.81353382211113]
マルチヘッド自己認識を高分解能表現CNNに効率的に組み込むという課題に対処する。
本稿では,高解像度機能の利点をフル活用したマルチターゲットマルチブランチ・スーパーネット手法を提案する。
本稿では,Hybrid Convolutional-Transformer Architecture Search (HyCTAS)法を用いて,軽量畳み込み層とメモリ効率のよい自己保持層を最適に組み合わせたモデルを提案する。
論文 参考訳(メタデータ) (2024-03-15T15:47:54Z) - Any-Size-Diffusion: Toward Efficient Text-Driven Synthesis for Any-Size
HD Images [56.17404812357676]
テキストと画像の合成に使用される生成モデルである安定拡散は、様々なサイズの画像を生成する際にしばしば構成問題に遭遇する。
そこで我々は,任意の大きさの画像を効率よく生成するために,Any-Size-Diffusion (ASD) という2段階のパイプラインを提案する。
ASDは任意のサイズの画像を生成することができ、従来のタイル付きアルゴリズムと比較して推論時間を2倍削減できることを示す。
論文 参考訳(メタデータ) (2023-08-31T09:27:56Z) - Improving Misaligned Multi-modality Image Fusion with One-stage
Progressive Dense Registration [67.23451452670282]
多モード画像間の相違は、画像融合の課題を引き起こす。
マルチスケールプログレッシブ・センス・レジストレーション方式を提案する。
このスキームは、一段階最適化のみで粗大な登録を行う。
論文 参考訳(メタデータ) (2023-08-22T03:46:24Z) - Multi-interactive Feature Learning and a Full-time Multi-modality
Benchmark for Image Fusion and Segmentation [66.15246197473897]
多モード画像融合とセグメンテーションは、自律走行とロボット操作において重要な役割を果たす。
画像融合とtextbfSegmentation のための textbfMulti-textbfinteractive textbfFeature Learning アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:03:58Z) - Searching a Compact Architecture for Robust Multi-Exposure Image Fusion [55.37210629454589]
2つの大きなスタブリングブロックは、画素の不一致や非効率な推論など、開発を妨げる。
本研究では,高機能なマルチ露光画像融合のための自己アライメントとディテールリプレクションモジュールを取り入れたアーキテクチャ検索に基づくパラダイムを提案する。
提案手法は様々な競争方式より優れており、一般的なシナリオではPSNRが3.19%向上し、不整合シナリオでは23.5%向上した。
論文 参考訳(メタデータ) (2023-05-20T17:01:52Z) - Semantic Labeling of High Resolution Images Using EfficientUNets and
Transformers [5.177947445379688]
畳み込みニューラルネットワークとディープトランスを組み合わせた新しいセグメンテーションモデルを提案する。
提案手法は,最先端技術と比較してセグメント化精度が向上することを示す。
論文 参考訳(メタデータ) (2022-06-20T12:03:54Z) - AF$_2$: Adaptive Focus Framework for Aerial Imagery Segmentation [86.44683367028914]
航空画像のセグメンテーションにはいくつかの独特な課題があり、中でも最も重要なものは前景と背景のアンバランスにある。
本稿では,階層的なセグメンテーション手法を採用し,マルチスケール表現を適応的に活用するAdaptive Focus Framework (AF$)を提案する。
AF$は、広く使われている3つの航空ベンチマークの精度を大幅に改善した。
論文 参考訳(メタデータ) (2022-02-18T10:14:45Z) - Double Similarity Distillation for Semantic Image Segmentation [18.397968199629215]
本稿では,既存のコンパクトネットワークの分類精度を向上させるために,DSD(Double similarity distillation)と呼ばれる知識蒸留フレームワークを提案する。
具体的には,より詳細な空間依存性を捉えるために,残像マップを用いたPSD(Pixel-wise similarity distillation)モジュールを提案する。
セグメンテーションタスクとコンピュータビジョンタスクの特徴の違いを考慮し,カテゴリワイド類似度蒸留(CSD)モジュールを提案する。
論文 参考訳(メタデータ) (2021-07-19T02:45:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。