論文の概要: DynaSeg: A Deep Dynamic Fusion Method for Unsupervised Image Segmentation Incorporating Feature Similarity and Spatial Continuity
- arxiv url: http://arxiv.org/abs/2405.05477v1
- Date: Thu, 9 May 2024 00:30:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-10 14:32:25.994925
- Title: DynaSeg: A Deep Dynamic Fusion Method for Unsupervised Image Segmentation Incorporating Feature Similarity and Spatial Continuity
- Title(参考訳): DynaSeg:特徴類似性と空間連続性を考慮した教師なし画像分割のためのディープダイナミックフュージョン法
- Authors: Naimul Khan, Boujemaa Guermazi,
- Abstract要約: 本稿では、DynaSegと呼ばれる、教師なし畳み込みニューラルネットワーク(CNN)に基づくアルゴリズムを提案する。
特徴類似性と空間連続性のバランスをとるために固定重み係数に依存する従来の手法とは異なり、我々の新しい動的重み付け方式はパラメータチューニングを自動化する。
現在のベンチマークと比較すると、12.2%と14.12%のmIOUの改善が目覚ましい。
- 参考スコア(独自算出の注目度): 0.5755004576310334
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Our work tackles the fundamental challenge of image segmentation in computer vision, which is crucial for diverse applications. While supervised methods demonstrate proficiency, their reliance on extensive pixel-level annotations limits scalability. In response to this challenge, we present an enhanced unsupervised Convolutional Neural Network (CNN)-based algorithm called DynaSeg. Unlike traditional approaches that rely on a fixed weight factor to balance feature similarity and spatial continuity, requiring manual adjustments, our novel, dynamic weighting scheme automates parameter tuning, adapting flexibly to image details. We also introduce the novel concept of a Silhouette Score Phase that addresses the challenge of dynamic clustering during iterations. Additionally, our methodology integrates both CNN-based and pre-trained ResNet feature extraction, offering a comprehensive and adaptable approach. We achieve state-of-the-art results on diverse datasets, with a notable 12.2% and 14.12% mIOU improvement compared to the current benchmarks on COCO-All and COCO-Stuff, respectively. The proposed approach unlocks the potential for unsupervised image segmentation and addresses scalability concerns in real-world scenarios by obviating the need for meticulous parameter tuning.
- Abstract(参考訳): 本研究は,コンピュータビジョンにおけるイメージセグメンテーションの根本的な課題に取り組み,多様なアプリケーションに欠かせない課題である。
教師付き手法は習熟度を示すが、広範囲のピクセルレベルのアノテーションに依存しているためスケーラビリティは制限される。
この課題に対応するために、DynaSegと呼ばれる、拡張された教師なし畳み込みニューラルネットワーク(CNN)ベースのアルゴリズムを提案する。
特徴の類似性と空間的連続性のバランスをとるために固定重み係数に依存する従来の手法とは異なり、我々の新しい動的重み付け方式はパラメータチューニングを自動化し、画像の詳細に柔軟に適応する。
また、反復中の動的クラスタリングの課題に対処するシルエットスコアフェーズという新しい概念についても紹介する。
さらに、我々の方法論はCNNベースと事前訓練されたResNet機能抽出を統合し、包括的で適応可能なアプローチを提供する。
私たちは、COCO-AllとCOCO-Stuffの現在のベンチマークと比較して、12.2%と14.12%のmIOUの改善で、さまざまなデータセットで最先端の結果を得る。
提案手法は、教師なしのイメージセグメンテーションの可能性を解き、微妙なパラメータチューニングの必要性を回避し、現実のシナリオにおけるスケーラビリティの懸念に対処する。
関連論文リスト
- Dual-scale Enhanced and Cross-generative Consistency Learning for
Semi-supervised Polyp Segmentation [52.06525450636897]
大腸癌の早期診断と治療において, 自動ポリープセグメンテーションが重要な役割を担っている。
既存の手法は、完全に教師されたトレーニングに大きく依存しており、大量のラベル付きデータと時間を要するピクセル単位のアノテーションを必要とする。
大腸内視鏡画像からの半教師付きポリープ(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learningフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - Self-Supervised Neuron Segmentation with Multi-Agent Reinforcement
Learning [53.00683059396803]
マスク画像モデル(MIM)は,マスク画像から元の情報を復元する簡便さと有効性から広く利用されている。
本稿では、強化学習(RL)を利用して最適な画像マスキング比とマスキング戦略を自動検索する決定に基づくMIMを提案する。
本手法は,ニューロン分節の課題において,代替自己監督法に対して有意な優位性を有する。
論文 参考訳(メタデータ) (2023-10-06T10:40:46Z) - Learning Image Deraining Transformer Network with Dynamic Dual
Self-Attention [46.11162082219387]
本稿では,動的二重自己アテンション(DDSA)を用いた画像デコライニング変換器を提案する。
具体的には、トップk近似計算に基づいて、最も有用な類似度値のみを選択し、スパースアテンションを実現する。
また,高品質な定位結果を得るためのより正確な表現を実現するために,新しい空間拡張フィードフォワードネットワーク(SEFN)を開発した。
論文 参考訳(メタデータ) (2023-08-15T13:59:47Z) - ARHNet: Adaptive Region Harmonization for Lesion-aware Augmentation to
Improve Segmentation Performance [61.04246102067351]
本研究では,合成画像をよりリアルに見せるために,前景調和フレームワーク(ARHNet)を提案する。
実画像と合成画像を用いたセグメンテーション性能の向上に本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-07-02T10:39:29Z) - Skip-Attention: Improving Vision Transformers by Paying Less Attention [55.47058516775423]
視覚計算変換器(ViT)は、すべての層で高価な自己注意操作を使用する。
また,SkipAtを提案する。SkipAtは,先行層から自己注意を再利用して1層以上の注意を近似する手法である。
本稿では,画像の分類と自己教師型学習,ADE20Kのセマンティックセグメンテーション,SIDDの画像デノイング,DAVISのビデオデノナイズにおける手法の有効性を示す。
論文 参考訳(メタデータ) (2023-01-05T18:59:52Z) - DynaST: Dynamic Sparse Transformer for Exemplar-Guided Image Generation [56.514462874501675]
本稿では,動的スパースアテンションに基づくトランスフォーマーモデルを提案する。
このアプローチの核心は、ある位置がフォーカスすべき最適なトークン数の変化をカバーすることに特化した、新しいダイナミックアテンションユニットです。
3つの応用、ポーズ誘導型人物画像生成、エッジベース顔合成、歪みのない画像スタイル転送の実験により、DynaSTは局所的な詳細において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2022-07-13T11:12:03Z) - Self-paced and self-consistent co-training for semi-supervised image
segmentation [23.100800154116627]
注釈付きデータが不足している場合のイメージセグメンテーションに有効な手法として、ディープコトレーニングが提案されている。
本稿では, 半教師付きセグメンテーションの既存手法を, 自己完結型・自己整合型協調学習法により改良する。
論文 参考訳(メタデータ) (2020-10-31T17:41:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。