論文の概要: Unlocking Constraints: Source-Free Occlusion-Aware Seamless Segmentation
- arxiv url: http://arxiv.org/abs/2506.21198v1
- Date: Thu, 26 Jun 2025 12:55:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:10.082662
- Title: Unlocking Constraints: Source-Free Occlusion-Aware Seamless Segmentation
- Title(参考訳): アンロック制約:ソースフリーオクルージョン対応シームレスセグメンテーション
- Authors: Yihong Cao, Jiaming Zhang, Xu Zheng, Hao Shi, Kunyu Peng, Hang Liu, Kailun Yang, Hui Zhang,
- Abstract要約: 我々は、ラベル付きピンホールデータからラベル付きパノラマ画像へ知識を伝達するために、Source-Free Occlusion-Aware Seamless (SFOASS)を導入する。
UNLOCKには、Omni Pseudo-Labeling LearningとAmodal-Driven Context Learningという2つの重要なモジュールが含まれている。
提案したSFOASSタスクを実-実-実-実-実-実-実-実-実-実適応設定でベンチマークする。
- 参考スコア(独自算出の注目度): 24.4512448099914
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Panoramic image processing is essential for omni-context perception, yet faces constraints like distortions, perspective occlusions, and limited annotations. Previous unsupervised domain adaptation methods transfer knowledge from labeled pinhole data to unlabeled panoramic images, but they require access to source pinhole data. To address these, we introduce a more practical task, i.e., Source-Free Occlusion-Aware Seamless Segmentation (SFOASS), and propose its first solution, called UNconstrained Learning Omni-Context Knowledge (UNLOCK). Specifically, UNLOCK includes two key modules: Omni Pseudo-Labeling Learning and Amodal-Driven Context Learning. While adapting without relying on source data or target labels, this framework enhances models to achieve segmentation with 360{\deg} viewpoint coverage and occlusion-aware reasoning. Furthermore, we benchmark the proposed SFOASS task through both real-to-real and synthetic-to-real adaptation settings. Experimental results show that our source-free method achieves performance comparable to source-dependent methods, yielding state-of-the-art scores of 10.9 in mAAP and 11.6 in mAP, along with an absolute improvement of +4.3 in mAPQ over the source-only method. All data and code will be made publicly available at https://github.com/yihong-97/UNLOCK.
- Abstract(参考訳): パノラマ画像処理は、全文認識には不可欠であるが、歪み、視点閉塞、限定アノテーションといった制約に直面している。
従来の教師なし領域適応手法は、ラベル付きピンホールデータからラベルなしパノラマ画像へ知識を伝達するが、ソースピンホールデータにアクセスする必要がある。
これらの課題に対処するために、より実践的なタスク、すなわち、SFOASS(Source-Free Occlusion-Aware Seamless Segmentation)を導入し、UNLOCK(UNconstrained Learning Omni-Context Knowledge)と呼ばれる最初のソリューションを提案する。
特にUNLOCKには、Omni Pseudo-Labeling LearningとAmodal-Driven Context Learningの2つの重要なモジュールが含まれている。
このフレームワークは、ソースデータやターゲットラベルに頼ることなく適応するが、360{\deg}の視点カバレッジとオクルージョン対応推論でセグメンテーションを達成するためのモデルを強化する。
さらに,提案したSFOASSタスクを,実-実-実-実-実-実-実-実-実の両方の適応設定でベンチマークする。
実験結果から,mAAPは10.9,mAPは11.6,mAPQは4.3,mAPQは4.3であった。
すべてのデータとコードはhttps://github.com/yihong-97/UNLOCK.comで公開される。
関連論文リスト
- Semantic-Aligned Learning with Collaborative Refinement for Unsupervised VI-ReID [82.12123628480371]
教師なしの人物再識別(USL-VI-ReID)は、モデル学習のための人間のアノテーションを使わずに、同じ人物の歩行者像を異なるモードでマッチングすることを目指している。
従来の手法では、ラベルアソシエーションアルゴリズムを用いて異質な画像の擬似ラベルを統一し、グローバルな特徴学習のためのコントラスト学習フレームワークを設計していた。
本稿では,各モダリティによって強調される特定のきめ細かいパターンを対象とするSALCR(Semantic-Aligned Learning with Collaborative Refinement)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-27T13:58:12Z) - Asymmetric Co-Training for Source-Free Few-Shot Domain Adaptation [5.611768906855499]
SFFSDAシナリオに特化して設計された非対称コトレーニング(ACT)手法を提案する。
ターゲットモデルをトレーニングするために、2段階の最適化プロセスを使用します。
本研究は,少数のラベル付き対象データのみを用いた事前学習モデルの適用により,実用的で信頼性の高い解が得られることを示唆する。
論文 参考訳(メタデータ) (2025-02-20T02:58:45Z) - Pseudolabel guided pixels contrast for domain adaptive semantic segmentation [0.9831489366502301]
セマンティックセグメンテーションのための教師なしドメイン適応(UDA)は、ラベル付き仮想データを使用してモデルをトレーニングし、ラベルなしで実際のデータに適応するテクニックである。
近年のいくつかの研究は、このテクニックを支援するために、自己教師付き学習の強力な方法であるコントラスト学習を使用している。
Pseudo-label Guided Pixel Contrast (PGPC) と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-15T03:25:25Z) - Towards Optimal Aggregation of Varying Range Dependencies in Haze Removal [17.29370328189668]
ヘイズ除去は、ぼんやりとした入力から明確なイメージを復元することを目的としている。
既存の手法は、局所的な詳細保存のための短距離依存か、グローバルな文脈モデリングのための長距離依存のいずれかをキャプチャすることで、有意義な有効性を示している。
bfDehazeMaticは,2経路設計により短距離および長距離の依存関係を捕捉し,修復を改善する。
論文 参考訳(メタデータ) (2024-08-22T11:51:50Z) - SF-FSDA: Source-Free Few-Shot Domain Adaptive Object Detection with
Efficient Labeled Data Factory [94.11898696478683]
ドメイン適応オブジェクト検出は、ラベル付きソースドメインから学んだ知識を活用し、ラベルなしのターゲットドメインのパフォーマンスを改善することを目的としています。
本研究では,SF-FSDA という名称のソースフリーおよび少数ショット条件下で,より実用的で困難な領域適応型オブジェクト検出問題を提案し,検討する。
論文 参考訳(メタデータ) (2023-06-07T12:34:55Z) - Few-shot Fine-tuning is All You Need for Source-free Domain Adaptation [2.837894907597713]
非教師なしドメイン適応(SFUDA)の非教師なしドメイン適応(UDA)に対する実用性について検討する。
SFUDAは、実世界のアプリケーションにおける実用性を制限する未ラベルのターゲットデータに依存していることを示す。
SFUDAの限界を回避するために,ラベル付きデータによる事前学習モデルの微調整を行うことが,実用的で信頼性の高い手法であることを示す。
論文 参考訳(メタデータ) (2023-04-03T08:24:40Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Improving Contrastive Learning on Imbalanced Seed Data via Open-World
Sampling [96.8742582581744]
我々は、Model-Aware K-center (MAK)と呼ばれるオープンワールドなラベルなしデータサンプリングフレームワークを提案する。
MAKは、尾性、近接性、多様性の3つの単純な原則に従う。
我々はMAKが学習した機能の全体的な表現品質とクラスバランス性の両方を継続的に改善できることを実証した。
論文 参考訳(メタデータ) (2021-11-01T15:09:41Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。