論文の概要: Unsupervised Segmentation in Real-World Images via Spelke Object
Inference
- arxiv url: http://arxiv.org/abs/2205.08515v1
- Date: Tue, 17 May 2022 17:39:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-18 13:08:21.465922
- Title: Unsupervised Segmentation in Real-World Images via Spelke Object
Inference
- Title(参考訳): spelkeオブジェクト推論による実世界画像の教師なしセグメンテーション
- Authors: Honglin Chen, Rahul Venkatesh, Yoni Friedman, Jiajun Wu, Joshua B.
Tenenbaum, Daniel L. K. Yamins, Daniel M. Bear
- Abstract要約: 興奮抑制セグメンション抽出ネットワーク(EISEN)は、光学フロー推定から学習し、静的シーンのペア親和性グラフを抽出する。
EISENは、合成および実世界のロボット画像データセットに挑戦する上で、自己教師付きセグメンテーションのための技術の現状を大幅に改善することを示す。
- 参考スコア(独自算出の注目度): 44.79376336842088
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised category-agnostic segmentation of real-world images into
objects is a challenging open problem in computer vision. Here, we show how to
learn static grouping priors from motion self-supervision, building on the
cognitive science notion of Spelke Objects: groupings of stuff that move
together. We introduce Excitatory-Inhibitory Segment Extraction Network
(EISEN), which learns from optical flow estimates to extract pairwise affinity
graphs for static scenes. EISEN then produces segments from affinities using a
novel graph propagation and competition mechanism. Correlations between
independent sources of motion (e.g. robot arms) and objects they move are
resolved into separate segments through a bootstrapping training process. We
show that EISEN achieves a substantial improvement in the state of the art for
self-supervised segmentation on challenging synthetic and real-world robotic
image datasets. We also present an ablation analysis illustrating the
importance of each element of the EISEN architecture.
- Abstract(参考訳): 自己教師付きカテゴリ非依存な現実世界の画像のオブジェクトへのセグメンテーションは、コンピュータビジョンにおいて難しいオープン問題である。
本稿では,Spelke Objectsの認知科学的概念に基づいて,動きの自己スーパービジョンから静的グルーピングを学習する方法を紹介する。
本稿では,光学フロー推定から学習し,静止シーンのペアワイズアフィニティグラフを抽出する,興奮抑制セグメント抽出ネットワーク(eisen)を提案する。
EISENは、新しいグラフ伝播と競合機構を使用して親和性からセグメントを生成する。
独立動作源(例えばロボットアーム)と移動対象との相関関係は、ブートストラップ訓練プロセスによって別個のセグメントに解決される。
人工的および実世界のロボット画像データセットに対する自己教師ありセグメンテーション技術において,eisenは最先端の成果を上げている。
また,アイゼンアーキテクチャの各要素の重要性を示すアブレーション解析を行った。
関連論文リスト
- SOHES: Self-supervised Open-world Hierarchical Entity Segmentation [82.45303116125021]
この研究は、人間のアノテーションを必要としない新しいアプローチであるSOHES(Self-supervised Open World Hierarchical Entities)を提示する。
視覚的特徴クラスタリングにより高品質な擬似ラベルを生成し,教師同士の学習によって擬似ラベルの雑音を補正する。
学習データとして生画像を用いることにより,自己監督型オープンワールドセグメンテーションにおける前例のない性能を実現する。
論文 参考訳(メタデータ) (2024-04-18T17:59:46Z) - EAGLE: Eigen Aggregation Learning for Object-Centric Unsupervised Semantic Segmentation [5.476136494434766]
意味的類似性行列から派生した固有ベイズを通して意味的および構造的手がかりを提供する手法であるEiCueを紹介する。
オブジェクトレベルの表現を画像内および画像間の整合性で学習する。
COCO-Stuff、Cityscapes、Potsdam-3データセットの実験では、最先端のUSSの結果が示されている。
論文 参考訳(メタデータ) (2024-03-03T11:24:16Z) - Self-trained Panoptic Segmentation [0.0]
パノプティックセグメンテーションは、セグメンテーションとインスタンスセグメンテーションを組み合わせた重要なコンピュータビジョンタスクである。
近年の自己教師型学習手法の進歩は、擬似ラベルを生成するために、合成データと非ラベルデータを活用する大きな可能性を示している。
本研究の目的は,合成領域適応問題における自己学習を用いた埋め込み型自己教師型単眼セグメンテーションを実現するためのフレームワークを開発することである。
論文 参考訳(メタデータ) (2023-11-17T17:06:59Z) - LOCATE: Self-supervised Object Discovery via Flow-guided Graph-cut and
Bootstrapped Self-training [13.985488693082981]
動作情報と外観情報を利用して高品質な物体分割マスクを生成する自己教師型物体発見手法を提案する。
複数の標準ビデオオブジェクトセグメンテーション、画像のサリエンシ検出、オブジェクトセグメンテーションベンチマークにおいて、LOCATEと呼ばれるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-08-22T07:27:09Z) - Optical Flow boosts Unsupervised Localization and Segmentation [22.625511865323183]
ラベルなしビデオにおける光フローを用いた新たな損失項定式化を提案し, 自己教師型VT機能を互いに近づきやすくする。
提案した損失関数を用いて、当初静的画像に基づいて訓練された視覚変換器を微調整する。
論文 参考訳(メタデータ) (2023-07-25T16:45:35Z) - The Emergence of Objectness: Learning Zero-Shot Segmentation from Videos [59.12750806239545]
動画は移動成分によって同じシーンを異なる視点で見ることができ、適切な領域分割と領域フローは相互のビュー合成を可能にする。
モデルでは,1枚の画像に対して特徴に基づく領域分割を出力する出現経路と,1枚の画像に対して動作特徴を出力する動き経路の2つの経路から開始する。
セグメントフローに基づく視線合成誤差を最小限に抑えるためにモデルを訓練することにより、我々の外観経路と運動経路は、それぞれ低レベルのエッジや光フローから構築することなく、領域のセグメンテーションとフロー推定を自動的に学習する。
論文 参考訳(メタデータ) (2021-11-11T18:59:11Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - Self-supervised Video Object Segmentation by Motion Grouping [79.13206959575228]
動きの手がかりを利用して物体をセグメンテーションできるコンピュータビジョンシステムを開発した。
本稿では,光フローフレームを一次オブジェクトと背景に分割するトランスフォーマーの簡単なバリエーションを紹介する。
提案したアーキテクチャを公開ベンチマーク(DAVIS2016, SegTrackv2, FBMS59)で評価する。
論文 参考訳(メタデータ) (2021-04-15T17:59:32Z) - "What's This?" -- Learning to Segment Unknown Objects from Manipulation
Sequences [27.915309216800125]
本稿では,ロボットマニピュレータを用いた自己教師型把握対象セグメンテーションのための新しいフレームワークを提案する。
本稿では,モーションキューとセマンティック知識を共同で組み込んだ,エンドツーエンドのトレーニング可能な単一アーキテクチャを提案する。
我々の手法は、運動ロボットや3Dオブジェクトモデルの視覚的登録にも、正確な手眼の校正や追加センサーデータにも依存しない。
論文 参考訳(メタデータ) (2020-11-06T10:55:28Z) - DyStaB: Unsupervised Object Segmentation via Dynamic-Static
Bootstrapping [72.84991726271024]
我々は,コヒーレントなシーン全体を移動しているように見えるシーンの画像の一部を検出し,分割するための教師なしの手法について述べる。
提案手法はまず,セグメント間の相互情報を最小化することにより,運動場を分割する。
セグメントを使用してオブジェクトモデルを学習し、静的なイメージの検出に使用することができる。
論文 参考訳(メタデータ) (2020-08-16T22:05:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。