論文の概要: CSSAM: U-net Network for Application and Segmentation of Welding
Engineering Drawings
- arxiv url: http://arxiv.org/abs/2209.14102v1
- Date: Wed, 28 Sep 2022 13:49:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 16:48:24.639875
- Title: CSSAM: U-net Network for Application and Segmentation of Welding
Engineering Drawings
- Title(参考訳): cssam: 溶接技術図面の応用とセグメント化のためのu-netネットワーク
- Authors: Zhiwei Song, Hui Yao, Dan Tian and GaoHui Zhan
- Abstract要約: 溶接工法設計のためのU-netを用いた輪郭セグメント抽出法を提案する。
エンジニアリング描画に必要な部品の輪郭を自動的に分割して空白し、製造効率を大幅に向上させることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Heavy equipment manufacturing splits specific contours in drawings and cuts
sheet metal to scale for welding. Currently, most of the segmentation and
extraction of weld map contours is achieved manually. Its efficiency is greatly
reduced. Therefore, we propose a U-net-based contour segmentation and
extraction method for welding engineering drawings. The contours of the parts
required for engineering drawings can be automatically divided and blanked,
which significantly improves manufacturing efficiency. U-net includes an
encoder-decoder, which implements end-to-end mapping through semantic
differences and spatial location feature information between the encoder and
decoder. While U-net excels at segmenting medical images, our extensive
experiments on the Welding Structural Diagram dataset show that the classic
U-Net architecture falls short in segmenting welding engineering drawings.
Therefore, we design a novel Channel Spatial Sequence Attention Module (CSSAM)
and improve on the classic U-net. At the same time, vertical max pooling and
average horizontal pooling are proposed. Pass the pooling operation through two
equal convolutions into the CSSAM module. The output and the features before
pooling are fused by semantic clustering, which replaces the traditional jump
structure and effectively narrows the semantic gap between the encoder and the
decoder, thereby improving the segmentation performance of welding engineering
drawings. We use vgg16 as the backbone network. Compared with the classic
U-net, our network has good performance in engineering drawing dataset
segmentation.
- Abstract(参考訳): 重機製造は、図面における特定の輪郭を分割し、溶接のためにスケールするために金属板を切断する。
現在,溶接地図輪郭の分割・抽出のほとんどは手作業で行われている。
効率は大幅に低下する。
そこで本研究では, 溶接工学図面のU-netを用いた輪郭分断抽出法を提案する。
エンジニアリング描画に必要な部品の輪郭を自動的に分割して空白し、製造効率を大幅に向上させることができる。
u-netにはエンコーダ-デコーダが含まれており、エンコーダとデコーダ間の意味的差異と空間的位置特徴情報を通じてエンドツーエンドマッピングを実装する。
u-netは医療画像のセグメンテーションに優れていますが、溶接構造図データセットに関する広範な実験では、従来のu-netアーキテクチャはセグメンテーション技術図では不足しています。
そこで我々は,新しいチャンネル空間シーケンスアテンションモジュール (CSSAM) を設計し,従来のU-netの改良を行った。
同時に,垂直最大プーリングと平均水平プーリングが提案されている。
プール操作を2つの等しい畳み込みを通じてCSSAMモジュールに渡す。
出力とプーリング前の機能は、従来のジャンプ構造を置き換える意味的クラスタリングによって融合され、エンコーダとデコーダ間の意味的ギャップを効果的に狭め、溶接工学図のセグメンテーション性能を向上させる。
バックボーンネットワークとしてvgg16を使用します。
従来のU-netと比較して、我々のネットワークはデータセットのセグメンテーションのエンジニアリング性能に優れています。
関連論文リスト
- CARE Transformer: Mobile-Friendly Linear Visual Transformer via Decoupled Dual Interaction [77.8576094863446]
本稿では,新しいdetextbfCoupled dutextbfAl-interactive lineatextbfR atttextbfEntion (CARE) 機構を提案する。
まず,非対称な特徴分離戦略を提案し,非対称的に学習プロセスを局所帰納バイアスと長距離依存に分解する。
分離学習方式を採用し,特徴間の相補性を完全に活用することにより,高い効率性と精度を両立させることができる。
論文 参考訳(メタデータ) (2024-11-25T07:56:13Z) - Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - Bilateral Network with Residual U-blocks and Dual-Guided Attention for
Real-time Semantic Segmentation [18.393208069320362]
注意計算によって導かれる2分岐アーキテクチャのための新しい融合機構を設計する。
正確には、DGA(Dual-Guided Attention)モジュールを使用して、いくつかのマルチスケール変換を置き換えることを提案した。
Cityscapes と CamVid のデータセットを用いた実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-10-31T09:20:59Z) - Unite-Divide-Unite: Joint Boosting Trunk and Structure for High-accuracy
Dichotomous Image Segmentation [48.995367430746086]
Dichotomous Image rendering (DIS) は、自然の風景からカテゴリーに依存しない前景の物体をピンポイントすることを目的としている。
本稿では, トランクと構造同定の有効性を高めるために, 相補的特徴を再構成し, 分割的に配置する, UDUN (Unite-Divide-Unite Network) を提案する。
1024*1024入力を用いて、ResNet-18で65.3fpsのリアルタイム推論を可能にする。
論文 参考訳(メタデータ) (2023-07-26T09:04:35Z) - Joint Channel Estimation and Feedback with Masked Token Transformers in
Massive MIMO Systems [74.52117784544758]
本稿では,CSI行列内の固有周波数領域相関を明らかにするエンコーダデコーダに基づくネットワークを提案する。
エンコーダ・デコーダネットワーク全体がチャネル圧縮に使用される。
提案手法は,共同作業における現状のチャネル推定およびフィードバック技術より優れる。
論文 参考訳(メタデータ) (2023-06-08T06:15:17Z) - EAA-Net: Rethinking the Autoencoder Architecture with Intra-class
Features for Medical Image Segmentation [4.777011444412729]
We propose a light-weight end-to-end segmentation framework based on multi-task learning, called Edge Attention autoencoder Network (EAA-Net)。
提案手法は,クラス間特徴の抽出にセグメンテーションネットワークを利用するだけでなく,フォアグラウンド内でのクラス内特徴の抽出にも再構成ネットワークを適用する。
実験結果から,医用画像分割作業において,本手法が良好に機能することが確認された。
論文 参考訳(メタデータ) (2022-08-19T07:42:55Z) - MGAE: Masked Autoencoders for Self-Supervised Learning on Graphs [55.66953093401889]
Masked Graph Autoencoder (MGAE) フレームワークは、グラフ構造データの効果的な学習を行う。
自己指導型学習から洞察を得て、私たちはランダムに大量のエッジを隠蔽し、トレーニング中に欠落したエッジを再構築しようとします。
論文 参考訳(メタデータ) (2022-01-07T16:48:07Z) - GridDehazeNet+: An Enhanced Multi-Scale Network with Intra-Task
Knowledge Transfer for Single Image Dehazing [12.982905875008214]
GridDehazeNet+と呼ばれる強化されたマルチスケールネットワークを提案します。
プリプロセス、バックボーン、後処理の3つのモジュールで構成されている。
論文 参考訳(メタデータ) (2021-03-25T17:35:36Z) - Multi-stage Attention ResU-Net for Semantic Segmentation of
Fine-Resolution Remote Sensing Images [9.398340832493457]
この問題に対処するための線形注意機構(LAM)を提案する。
LAMは、計算効率の高いドット積アテンションとほぼ同値である。
微細なリモートセンシング画像からのセマンティックセグメンテーションのためのマルチステージアテンションResU-Netを設計する。
論文 参考訳(メタデータ) (2020-11-29T07:24:21Z) - Efficient Medical Image Segmentation with Intermediate Supervision
Mechanism [48.244918515770514]
U-Netの拡張経路は小目標の特性を無視する可能性があるため、中間的な監視機構が提案される。
中間監督機構はセグメンテーション精度を向上させるが、余分な入力と複数の損失関数のためにトレーニング時間は長すぎる。
モデルの冗長性を低減するため,共有重み付きデコーダモジュールと結合重み付きデコーダモジュールを組み合わせる。
論文 参考訳(メタデータ) (2020-11-15T13:46:00Z) - Multi-scale Attention U-Net (MsAUNet): A Modified U-Net Architecture for
Scene Segmentation [1.713291434132985]
画像からコンテキスト情報を用いたシーンセグメンテーションのためのマルチスケールアテンションネットワークを提案する。
このネットワークは、局所的な特徴をグローバルな特徴にマップし、精度を向上し、識別画像領域を強調する。
我々はPascalVOC2012とADE20kという2つの標準データセットでモデルを評価した。
論文 参考訳(メタデータ) (2020-09-15T08:03:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。