論文の概要: DynaGuide: A Generalizable Dynamic Guidance Framework for Unsupervised Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2602.13020v1
- Date: Fri, 13 Feb 2026 15:25:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:54.008052
- Title: DynaGuide: A Generalizable Dynamic Guidance Framework for Unsupervised Semantic Segmentation
- Title(参考訳): DynaGuide: 教師なしセマンティックセグメンテーションのための汎用動的ガイダンスフレームワーク
- Authors: Boujemaa Guermazi, Riadh Ksantini, Naimul Khan,
- Abstract要約: DynaGuideは、グローバルな意味構造をきめ細かい境界精度で調整する適応的なセグメンテーションフレームワークである。
これまでの研究に基づいて、DynaGuideはDiffSegやSegFormerといったゼロショットモデルのグローバルな擬似ラベルと、局所的な境界修正を組み合わせたものです。
最先端のパフォーマンスを実現し、BSD500ではmIoUが17.5%、PASCAL VOC2012では3.1%、COCOでは11.66%向上した。
- 参考スコア(独自算出の注目度): 3.8526693793436144
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unsupervised image segmentation is a critical task in computer vision. It enables dense scene understanding without human annotations, which is especially valuable in domains where labelled data is scarce. However, existing methods often struggle to reconcile global semantic structure with fine-grained boundary accuracy. This paper introduces DynaGuide, an adaptive segmentation framework that addresses these challenges through a novel dual-guidance strategy and dynamic loss optimization. Building on our previous work, DynaSeg, DynaGuide combines global pseudo-labels from zero-shot models such as DiffSeg or SegFormer with local boundary refinement using a lightweight CNN trained from scratch. This synergy allows the model to correct coarse or noisy global predictions and produce high-precision segmentations. At the heart of DynaGuide is a multi-component loss that dynamically balances feature similarity, Huber-smoothed spatial continuity, including diagonal relationships, and semantic alignment with the global pseudo-labels. Unlike prior approaches, DynaGuide trains entirely without ground-truth labels in the target domain and supports plug-and-play integration of diverse guidance sources. Extensive experiments on BSD500, PASCAL VOC2012, and COCO demonstrate that DynaGuide achieves state-of-the-art performance, improving mIoU by 17.5% on BSD500, 3.1% on PASCAL VOC2012, and 11.66% on COCO. With its modular design, strong generalization, and minimal computational footprint, DynaGuide offers a scalable and practical solution for unsupervised segmentation in real-world settings. Code available at: https://github.com/RyersonMultimediaLab/DynaGuide
- Abstract(参考訳): 教師なし画像分割はコンピュータビジョンにおいて重要な課題である。
これは、ラベル付きデータが不足しているドメインで特に価値のある、人間のアノテーションを使わずに、密集したシーン理解を可能にする。
しかし、既存の手法は、大域的な意味構造をきめ細かな境界精度で整合するのにしばしば苦労する。
本稿では,これらの課題に対処する適応的セグメンテーションフレームワークであるDynaGuideを紹介する。
DiffSegやSegFormerといったゼロショットモデルからのグローバルな擬似ラベルと、スクラッチからトレーニングされた軽量CNNを使用した局所的な境界改善を組み合わせた、DynaSeg、DynaGuide。
このシナジーにより、モデルは粗いあるいは騒々しい大域的な予測を補正し、高精度なセグメンテーションを生成することができる。
DynaGuideの核心は、動的に類似性、ハマーの滑らかな空間連続性、対角関係、グローバルな擬似ラベルとのセマンティックアライメントのバランスをとる多成分損失である。
従来のアプローチとは異なり、DynaGuide はターゲット領域のグランド・トゥルース・ラベルなしで完全に列車を運行し、様々な誘導源のプラグ・アンド・プレイ統合をサポートしている。
BSD500、PASCAL VOC2012、COCOの大規模な実験では、DynaGuideは最先端のパフォーマンスを実現し、BSD500では17.5%、PASCAL VOC2012では3.1%、COCOでは11.66%改善している。
モジュラー設計、強力な一般化、最小限の計算フットプリントにより、DynaGuideは現実世界の設定における教師なしセグメンテーションのためのスケーラブルで実用的なソリューションを提供する。
https://github.com/RyersonMultimediaLab/DynaGuide
関連論文リスト
- DynaPURLS: Dynamic Refinement of Part-aware Representations for Skeleton-based Zero-Shot Action Recognition [51.80782323686666]
textbfDynaPURLSは、堅牢でマルチスケールなビジュアル・セマンティック対応を確立する統一的なフレームワークである。
我々のフレームワークは、グローバルな動きと局所的な身体部分のダイナミクスの両方を含む階層的なテキスト記述を生成するために、大きな言語モデルを活用する。
NTU RGB+D 60/120とPKU-MMDを含む3つの大規模ベンチマークデータセットの実験は、DynaPURLSが先行技術よりも大幅に優れていることを示した。
論文 参考訳(メタデータ) (2025-12-12T10:39:10Z) - Improving Multimodal Distillation for 3D Semantic Segmentation under Domain Shift [62.50795372173394]
我々は,ライダーポイント雲のセマンティックセグメンテーションのための教師なし領域適応において,視覚基盤モデル(VFM)を利用したレシピの同定を行う。
その結果、パイプラインは4つの広く認識され、困難な設定で、最先端の結果を達成する。
論文 参考訳(メタデータ) (2025-11-21T17:57:43Z) - Semantic-Aligned Learning with Collaborative Refinement for Unsupervised VI-ReID [82.12123628480371]
教師なしの人物再識別(USL-VI-ReID)は、モデル学習のための人間のアノテーションを使わずに、同じ人物の歩行者像を異なるモードでマッチングすることを目指している。
従来の手法では、ラベルアソシエーションアルゴリズムを用いて異質な画像の擬似ラベルを統一し、グローバルな特徴学習のためのコントラスト学習フレームワークを設計していた。
本稿では,各モダリティによって強調される特定のきめ細かいパターンを対象とするSALCR(Semantic-Aligned Learning with Collaborative Refinement)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-27T13:58:12Z) - UDA4Inst: Unsupervised Domain Adaptation for Instance Segmentation [5.982874955955054]
教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、ラベル付き合成データからラベル付き実世界のデータに知識を伝達する。
UDAメソッドは、セマンティックセグメンテーションやオブジェクト検出といったタスクにおいて、実世界のドメイン(合成から実世界のドメイン)を抽出する。
UDA4Instは、インスタンスセグメンテーションにおいて、シンセグメンテーションからリアル UDA への強力なフレームワークである。
論文 参考訳(メタデータ) (2024-05-15T19:53:52Z) - DynaSeg: A Deep Dynamic Fusion Method for Unsupervised Image Segmentation Incorporating Feature Similarity and Spatial Continuity [0.5755004576310334]
我々は、革新的な教師なしイメージセグメンテーションアプローチであるDynaSegを紹介する。
従来の方法とは異なり、DynaSegは画像の特徴に柔軟に対応する動的重み付け方式を採用している。
DynaSegは、予測されたクラスタ数が1つに収束する可能性のある、過小評価の失敗を防ぐ。
論文 参考訳(メタデータ) (2024-05-09T00:30:45Z) - Joint semi-supervised and contrastive learning enables domain generalization and multi-domain segmentation [1.5393913074555419]
SegCLRは、さまざまなドメインにまたがるイメージのセグメンテーション用に設計された汎用的なフレームワークです。
SegCLRは、ラベル付きデータとラベルなしデータの両方から効果的に学習するために、教師付き学習とコントラスト付き学習を同時に使用する。
3つの多様な臨床データセットを包括的に評価することで、SegCLRの優れた性能を実証する。
論文 参考訳(メタデータ) (2024-05-08T18:10:59Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Cross-Domain Facial Expression Recognition: A Unified Evaluation
Benchmark and Adversarial Graph Learning [85.6386289476598]
我々は,クロスドメイン全体的特徴共適応のための新しい逆グラフ表現適応(AGRA)フレームワークを開発した。
我々は,いくつかの一般的なベンチマークで広範囲かつ公平な評価を行い,提案したAGRAフレームワークが従来の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-03T15:00:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。