論文の概要: Harnessing Group-Oriented Consistency Constraints for Semi-Supervised Semantic Segmentation in CdZnTe Semiconductors
- arxiv url: http://arxiv.org/abs/2508.12766v1
- Date: Mon, 18 Aug 2025 09:40:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.158143
- Title: Harnessing Group-Oriented Consistency Constraints for Semi-Supervised Semantic Segmentation in CdZnTe Semiconductors
- Title(参考訳): CdZnTe半導体における半監督セマンティックセマンティックセグメンテーションのための高調波群配向一貫性制約
- Authors: Peihao Li, Yan Fang, Man Liu, Huihui Bai, Anhong Wang, Yunchao Wei, Yao Zhao,
- Abstract要約: ICAF(Intra-group Consistency Augmentation Framework)は、CdZnTe(Cadmium Zinc Telluride)半導体画像にラベルを付けるために開発された。
ICAF は View Augmentation Module (VAM) と View Correction Module (VCM) の2つの重要なモジュールで構成されている。
ICAFは、CdZnTeデータセット上の70.6% mIoUを2つのグループアノテートデータのみを用いて達成する。
- 参考スコア(独自算出の注目度): 71.44213719783703
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Labeling Cadmium Zinc Telluride (CdZnTe) semiconductor images is challenging due to the low-contrast defect boundaries, necessitating annotators to cross-reference multiple views. These views share a single ground truth (GT), forming a unique ``many-to-one'' relationship. This characteristic renders advanced semi-supervised semantic segmentation (SSS) methods suboptimal, as they are generally limited by a ``one-to-one'' relationship, where each image is independently associated with its GT. Such limitation may lead to error accumulation in low-contrast regions, further exacerbating confirmation bias. To address this issue, we revisit the SSS pipeline from a group-oriented perspective and propose a human-inspired solution: the Intra-group Consistency Augmentation Framework (ICAF). First, we experimentally validate the inherent consistency constraints within CdZnTe groups, establishing a group-oriented baseline using the Intra-group View Sampling (IVS). Building on this insight, we introduce the Pseudo-label Correction Network (PCN) to enhance consistency representation, which consists of two key modules. The View Augmentation Module (VAM) improves boundary details by dynamically synthesizing a boundary-aware view through the aggregation of multiple views. In the View Correction Module (VCM), this synthesized view is paired with other views for information interaction, effectively emphasizing salient regions while minimizing noise. Extensive experiments demonstrate the effectiveness of our solution for CdZnTe materials. Leveraging DeepLabV3+ with a ResNet-101 backbone as our segmentation model, we achieve a 70.6\% mIoU on the CdZnTe dataset using only 2 group-annotated data (5\textperthousand). The code is available at \href{https://github.com/pipixiapipi/ICAF}{https://github.com/pipixiapipi/ICAF}.
- Abstract(参考訳): カドミウム亜鉛テルリド(CdZnTe)半導体画像のラベル付けは、低コントラスト欠陥境界のため困難であり、アノテータは複数のビューを相互参照する必要がある。
これらの見解は単一の根拠真理(GT)を共有し、'many-to-one'の関係を形成する。
この特徴は、高度な半教師付きセマンティックセグメンテーション(SSS)メソッドを、通常、各画像がGTと独立に関連付けられている 'one-to-one'' 関係によって制限されるため、サブ最適化する。
このような制限は、低コントラスト領域におけるエラーの蓄積を招き、さらに確認バイアスが悪化する可能性がある。
この問題に対処するため、グループ指向の観点からSSSパイプラインを再検討し、グループ間一貫性向上フレームワーク(ICAF)という、人間にインスパイアされたソリューションを提案する。
まず, グループ内ビューサンプリング(IVS)を用いたグループ指向ベースラインを確立することにより, CdZnTeグループ内固有の一貫性制約を実験的に検証する。
この知見に基づいて,2つのキーモジュールからなる一貫性表現を強化するためにPseudo-label Correction Network (PCN)を導入する。
View Augmentation Module (VAM)は、複数のビューの集約を通じて境界認識ビューを動的に合成することで境界の詳細を改善する。
ビュー補正モジュール(VCM)では、この合成ビューは他のビューと組み合わせて情報交換を行い、ノイズを最小化しながら健全な領域を効果的に強調する。
CdZnTe材料に対する溶液の有効性を実験により明らかにした。
DeepLabV3+をResNet-101バックボーンをセグメンテーションモデルとして利用し、2つのグループアノテーションデータ(5\textperthousand)のみを使用して、CdZnTeデータセット上で70.6\% mIoUを達成する。
コードは \href{https://github.com/pipixiapi/ICAF}{https://github.com/pipixiapi/ICAF} で公開されている。
関連論文リスト
- Segment Concealed Objects with Incomplete Supervision [63.637733655439334]
不完全なスーパービジョン・コンセサイテッド・オブジェクト(ISCOS)は、周囲の環境にシームレスにブレンドするオブジェクトを分割する。
このタスクは、不完全な注釈付きトレーニングデータによって提供される限られた監督のため、非常に難しいままである。
本稿では,これらの課題に対処するためのISCOSの統一手法について紹介する。
論文 参考訳(メタデータ) (2025-06-10T16:25:15Z) - BoundMatch: Boundary detection applied to semi-supervised segmentation for urban-driving scenes [6.236890292833387]
半教師付きセマンティックセマンティックセグメンテーション(SS-SS)は、高密度ピクセルラベリングの重いアノテーション負担を軽減することを目的としている。
本稿では,教師と学生の整合性正規化パイプラインに意味境界検出を統合する,新しいマルチタスクSS-SSフレームワークであるBoundMatchを提案する。
境界整合性規則化マルチタスク学習(Bundary Consistency Regularized Multi-Task Learning)は,セグメンテーションマスクと詳細なセグメンテーション境界において,教師と生徒のモデル間の予測合意を強制する。
論文 参考訳(メタデータ) (2025-03-30T17:02:26Z) - Fast Disentangled Slim Tensor Learning for Multi-view Clustering [28.950845031752927]
本稿では,マルチビュークラスタリングのための高速離散スリム学習法(DSTL)を提案する。
頑健なPCAにインスパイアされた特徴冗長性の負の影響を軽減するため、DSTLは、潜在する低次元表現を、各ビューに対する意味的非関連部分と意味的関連部分に分解する。
提案手法は計算効率が高く,効果的に解ける。
論文 参考訳(メタデータ) (2024-11-12T09:57:53Z) - Leveraging CORAL-Correlation Consistency Network for Semi-Supervised Left Atrium MRI Segmentation [14.296441810235223]
半教師付き学習(SSL)は、ラベル付き画像とラベルなし画像の両方から学習するために広く使われている。
現在のSSLベースのセグメンテーションメソッドの多くは、ラベル付きデータとラベルなしデータの類似した特徴を識別するためにピクセル値を直接使用する。
我々は,グローバルな構造形状と左房の局所的詳細を捉えるために,CORAL(Correlation-Aligned)-Correlation Consistency Network (CORN)を導入した。
論文 参考訳(メタデータ) (2024-10-21T11:46:28Z) - Intrapartum Ultrasound Image Segmentation of Pubic Symphysis and Fetal Head Using Dual Student-Teacher Framework with CNN-ViT Collaborative Learning [1.5233179662962222]
pubic symphysis and fetal head (PSFH) の分節は、労働の進行をモニターし、潜在的に引き起こされる合併症を特定するための重要なステップである。
従来の半教師付き学習アプローチは、主に畳み込みニューラルネットワーク(CNN)に基づく統合ネットワークモデルを利用する。
CNN と Transformer を組み合わせた新しいフレームワークである Dual-Student and Teacher Combining CNN (DSTCT) を導入する。
論文 参考訳(メタデータ) (2024-09-11T00:57:31Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Mixed Graph Contrastive Network for Semi-Supervised Node Classification [63.924129159538076]
我々はMixed Graph Contrastive Network(MGCN)と呼ばれる新しいグラフコントラスト学習手法を提案する。
本研究では,非摂動増強戦略と相関還元機構により,潜伏埋め込みの識別能力を向上する。
これら2つの設定を組み合わせることで、識別表現学習のために、豊富なノードと稀に価値あるラベル付きノードの両方から、豊富な監視情報を抽出する。
論文 参考訳(メタデータ) (2022-06-06T14:26:34Z) - CoADNet: Collaborative Aggregation-and-Distribution Networks for
Co-Salient Object Detection [91.91911418421086]
Co-Salient Object Detection (CoSOD)は、2つ以上の関連する画像を含む所定のクエリグループに繰り返し現れる健全なオブジェクトを発見することを目的としている。
課題の1つは、画像間の関係をモデリングし、活用することによって、コ・サリヤ・キューを効果的にキャプチャする方法である。
我々は,複数画像から有能かつ反復的な視覚パターンを捉えるために,エンドツーエンドの協調集約配信ネットワーク(CoADNet)を提案する。
論文 参考訳(メタデータ) (2020-11-10T04:28:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。