論文の概要: Slot Contrastive Networks: A Contrastive Approach for Representing
Objects
- arxiv url: http://arxiv.org/abs/2007.09294v1
- Date: Sat, 18 Jul 2020 01:01:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 05:05:33.741950
- Title: Slot Contrastive Networks: A Contrastive Approach for Representing
Objects
- Title(参考訳): Slot Contrastive Networks: オブジェクト表現のためのコントラスト的アプローチ
- Authors: Evan Racah, Sarath Chandar
- Abstract要約: ラベルのないオブジェクトを表現するための既存のアプローチでは、静的なイメージを持つ構造化生成モデルが使用されている。
静止画像が提供する制限信号に対する画素空間の損失と過度信頼を回避する新しい手法を提案する。
本手法は,スロット表現の空間における識別的・時間的損失を学習することにより,物体の動きを利用する。
- 参考スコア(独自算出の注目度): 15.54136919933527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised extraction of objects from low-level visual data is an important
goal for further progress in machine learning. Existing approaches for
representing objects without labels use structured generative models with
static images. These methods focus a large amount of their capacity on
reconstructing unimportant background pixels, missing low contrast or small
objects. Conversely, we present a new method that avoids losses in pixel space
and over-reliance on the limited signal a static image provides. Our approach
takes advantage of objects' motion by learning a discriminative,
time-contrastive loss in the space of slot representations, attempting to force
each slot to not only capture entities that move, but capture distinct objects
from the other slots. Moreover, we introduce a new quantitative evaluation
metric to measure how "diverse" a set of slot vectors are, and use it to
evaluate our model on 20 Atari games.
- Abstract(参考訳): 低レベルの視覚データからオブジェクトを教師なしで抽出することは、機械学習のさらなる進歩にとって重要な目標である。
ラベルのないオブジェクトを表現するための既存のアプローチは、静的イメージを持つ構造化生成モデルを使用する。
これらの手法は、重要でない背景ピクセルの再構成や、低コントラストまたは小さなオブジェクトの欠落に焦点を当てている。
逆に,静止画像が提示する制限信号に対する画素空間の損失や過信頼を回避する新しい手法を提案する。
提案手法では,スロット表現の空間における識別的,時間的連続的損失を学習し,各スロットに移動するエンティティをキャプチャするだけでなく,他のスロットから異なるオブジェクトをキャプチャしようとする。
さらに,スロットベクトルの集合の"多様性"を測定するための新しい定量的評価指標を導入し,それを用いて20個のアタリゲーム上でのモデルの評価を行う。
関連論文リスト
- Just a Hint: Point-Supervised Camouflaged Object Detection [4.38858748263547]
カモフラージュされたオブジェクト検出(COD)は、環境内でシームレスにオブジェクトを迅速かつ正確に識別するモデルを要求する。
我々は,この課題を一点監督の助けを借りて遂行することを提案する。
具体的には、各オブジェクトを素早くクリックすることで、最初に元のポイントベースのアノテーションを合理的なヒント領域に適応的に拡張する。
そこで本研究では,物体全体に注意を散布するアテンションレギュレータを提案する。
論文 参考訳(メタデータ) (2024-08-20T12:17:25Z) - Pixel-Level Domain Adaptation: A New Perspective for Enhancing Weakly Supervised Semantic Segmentation [13.948425538725138]
画素単位の領域不変性を学習する際のモデルとして,Pixel-Level Domain Adaptation (PLDA)法を提案する。
我々は,幅広い環境下でのアプローチの有効性を実験的に実証した。
論文 参考訳(メタデータ) (2024-08-04T14:14:54Z) - ZoomNeXt: A Unified Collaborative Pyramid Network for Camouflaged Object Detection [70.11264880907652]
最近のオブジェクト(COD)は、現実のシナリオでは極めて複雑で難しい、視覚的にブレンドされたオブジェクトを周囲に分割しようと試みている。
本研究では,不明瞭な画像を観察したり,ズームインしたりアウトしたりする際の人間の行動を模倣する,効果的な統合協調ピラミッドネットワークを提案する。
我々のフレームワークは、画像とビデオのCODベンチマークにおいて、既存の最先端の手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-10-31T06:11:23Z) - Divided Attention: Unsupervised Multi-Object Discovery with Contextually
Separated Slots [78.23772771485635]
本研究では,視覚領域を独立した移動領域に分割し,基礎的な真実や監督を伴わずに訓練する手法を提案する。
Slot Attentionに基づく逆条件エンコーダ・デコーダアーキテクチャで構成されている。
論文 参考訳(メタデータ) (2023-04-04T00:26:13Z) - Foreground-Background Separation through Concept Distillation from
Generative Image Foundation Models [6.408114351192012]
本稿では, 簡単なテキスト記述から, 一般的な前景-背景セグメンテーションモデルの生成を可能にする新しい手法を提案する。
本研究では,4つの異なる物体(人間,犬,車,鳥)を分割する作業と,医療画像解析におけるユースケースシナリオについて述べる。
論文 参考訳(メタデータ) (2022-12-29T13:51:54Z) - Self-Supervised Video Object Segmentation via Cutout Prediction and
Tagging [117.73967303377381]
本稿では, 自己教師型ビデオオブジェクト(VOS)アプローチを提案する。
本手法は,対象情報と背景情報の両方を考慮した識別学習損失の定式化に基づく。
提案手法であるCT-VOSは, DAVIS-2017 と Youtube-VOS の2つの挑戦的なベンチマークにおいて,最先端の結果を達成している。
論文 参考訳(メタデータ) (2022-04-22T17:53:27Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - Deep Level Set for Box-supervised Instance Segmentation in Aerial Images [27.659592291045414]
本稿では,空域オブジェクトの一連のレベルセット関数を学習するためにネットワークを駆動する,新しい空域インスタンスセグメンテーション手法を提案する。
実験の結果,提案手法は最先端のボックス管理インスタンスセグメンテーション法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-12-07T02:27:58Z) - Region-level Active Learning for Cluttered Scenes [60.93811392293329]
本稿では,従来の画像レベルのアプローチとオブジェクトレベルのアプローチを一般化した領域レベルのアプローチに仮定する新たな戦略を提案する。
その結果,本手法はラベル付けの労力を大幅に削減し,クラス不均衡や散らかったシーンを生かしたリアルなデータに対する希少なオブジェクト検索を改善することが示唆された。
論文 参考訳(メタデータ) (2021-08-20T14:02:38Z) - Object-Centric Image Generation from Layouts [93.10217725729468]
複数のオブジェクトを持つ複雑なシーンを生成するレイアウト・ツー・イメージ生成法を開発した。
本手法は,シーン内のオブジェクト間の空間的関係の表現を学習し,レイアウトの忠実度の向上につながる。
本稿では,Fr'echet Inception Distanceのオブジェクト中心適応であるSceneFIDを紹介する。
論文 参考訳(メタデータ) (2020-03-16T21:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。