論文の概要: Weakly Supervised Object Segmentation by Background Conditional Divergence
- arxiv url: http://arxiv.org/abs/2506.22505v1
- Date: Wed, 25 Jun 2025 16:46:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.43037
- Title: Weakly Supervised Object Segmentation by Background Conditional Divergence
- Title(参考訳): 背景条件差分法による弱教師付き物体分割
- Authors: Hassan Baker, Matthew S. Emigh, Austin J. Brockmeier,
- Abstract要約: 本稿では,マスキングネットワークをトレーニングして,弱い監督力を用いた二元オブジェクト分割を行う手法を提案する。
この手法の重要なステップは、セグメント化されたオブジェクトを背景のみの画像に配置できる点である。
我々は, サイドスキャンと合成開口ソナーで実験を行い, アプローチが成功した。
- 参考スコア(独自算出の注目度): 1.5771347525430772
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As a computer vision task, automatic object segmentation remains challenging in specialized image domains without massive labeled data, such as synthetic aperture sonar images, remote sensing, biomedical imaging, etc. In any domain, obtaining pixel-wise segmentation masks is expensive. In this work, we propose a method for training a masking network to perform binary object segmentation using weak supervision in the form of image-wise presence or absence of an object of interest, which provides less information but may be obtained more quickly from manual or automatic labeling. A key step in our method is that the segmented objects can be placed into background-only images to create realistic, images of the objects with counterfactual backgrounds. To create a contrast between the original and counterfactual background images, we propose to first cluster the background-only images, and then during learning create counterfactual images that blend objects segmented from their original source backgrounds to backgrounds chosen from a targeted cluster. One term in the training loss is the divergence between these counterfactual images and the real object images with backgrounds of the target cluster. The other term is a supervised loss for background-only images. While an adversarial critic could provide the divergence, we use sample-based divergences. We conduct experiments on side-scan and synthetic aperture sonar in which our approach succeeds compared to previous unsupervised segmentation baselines that were only tested on natural images. Furthermore, to show generality we extend our experiments to natural images, obtaining reasonable performance with our method that avoids pretrained networks, generative networks, and adversarial critics. The basecode for this work can be found at \href{GitHub}{https://github.com/bakerhassan/WSOS}.
- Abstract(参考訳): コンピュータビジョンタスクとして、合成開口ソナー画像、リモートセンシング、バイオメディカルイメージングなど、大量のラベル付きデータを持たない特殊な画像領域では、自動オブジェクトセグメンテーションが依然として困難である。
いずれのドメインにおいても、ピクセルワイドセグメンテーションマスクの取得は高価である。
本研究では,手動や自動ラベリングにより,より少ない情報を提供するが,手動や自動ラベリングによりより高速に得ることのできる,イメージワイドの存在や関心対象の欠如という形で,弱い監督力を用いてバイナリオブジェクトセグメンテーションを行うためのマスキングネットワークの訓練方法を提案する。
提案手法の重要なステップは,セグメント化されたオブジェクトを背景のみのイメージに配置し,現実的な背景を持つオブジェクトの画像を生成することである。
元の背景画像と反現実的背景画像との対比を作成するために,まず背景のみの画像をクラスタリングし,学習中に元の背景画像と対象クラスタから選択した背景画像とをブレンドする反現実的画像を作成することを提案する。
トレーニング損失の1つの用語は、これらの反ファクト画像と、ターゲットクラスタの背景を持つ実際のオブジェクト画像とのばらつきである。
もう1つの用語は、背景のみの画像の教師付き損失である。
敵対的批判は分岐を与えることができるが、我々はサンプルベースの発散を用いる。
提案手法は, 自然画像のみを用いた非教師なしセグメンテーションベースラインと比較し, サイドスキャン, 合成開口ソナーを用いて実験を行った。
さらに,本実験を自然画像に拡張し,事前学習ネットワークや生成ネットワーク,敵対的批判を回避し,適切な性能を得る。
この研究のベースコードは \href{GitHub}{https://github.com/bakerhassan/WSOS} にある。
関連論文リスト
- Patch-Based Deep Unsupervised Image Segmentation using Graph Cuts [0.0]
本稿では,従来のグラフ手法のアルゴリズム的助けを借りて,教師なし特徴抽出の進歩を橋渡しするパッチベースの教師なし画像分割戦略を提案する。
画像パッチを分類するために訓練された単純な畳み込みニューラルネットワークは、自然に最先端の完全畳み込み非教師付きピクセルレベルのセグメンタに繋がることを示す。
論文 参考訳(メタデータ) (2023-11-01T19:59:25Z) - Foreground-Background Separation through Concept Distillation from
Generative Image Foundation Models [6.408114351192012]
本稿では, 簡単なテキスト記述から, 一般的な前景-背景セグメンテーションモデルの生成を可能にする新しい手法を提案する。
本研究では,4つの異なる物体(人間,犬,車,鳥)を分割する作業と,医療画像解析におけるユースケースシナリオについて述べる。
論文 参考訳(メタデータ) (2022-12-29T13:51:54Z) - Learning To Segment Dominant Object Motion From Watching Videos [72.57852930273256]
我々は,有意な移動物体セグメンテーションのための単純なフレームワークを構想する。このフレームワークは,有意なデータを必要としないし,有意な前処理や事前学習された光フローマップに依存しない。
層状画像表現に着想を得て,アフィンパラメトリックの動きに応じて画素領域をグループ化する手法を提案する。
これにより、トレーニングと推論の両方の入力として、RGBイメージペアのみを使用して、支配的なフォアグラウンドオブジェクトのセグメンテーションを学習することができる。
論文 参考訳(メタデータ) (2021-11-28T14:51:00Z) - Semantic-Aware Generation for Self-Supervised Visual Representation
Learning [116.5814634936371]
セマンティック・アウェア・ジェネレーション(SaGe)は、生成した画像に保存される詳細よりも、よりリッチなセマンティクスを促進する。
SaGeは、ターゲットネットワークをビュー特有の特徴で補完することで、集中的なデータ拡張によって引き起こされるセマンティックな劣化を軽減する。
我々は、ImageNet-1K上でSaGeを実行し、近接検定、線形分類、微視的画像認識を含む5つの下流タスクで事前訓練されたモデルを評価する。
論文 参考訳(メタデータ) (2021-11-25T16:46:13Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Self-supervised Segmentation via Background Inpainting [96.10971980098196]
移動可能なカメラで撮影された単一の画像で、自己教師付き検出とセグメンテーションのアプローチを導入する。
我々は、提案に基づくセグメンテーションネットワークのトレーニングに利用する自己教師付き損失関数を利用する。
本手法は,標準ベンチマークから視覚的に切り離された画像の人間の検出とセグメント化に応用し,既存の自己監督手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-11T08:34:40Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。