論文の概要: Object Pursuit: Building a Space of Objects via Discriminative Weight
Generation
- arxiv url: http://arxiv.org/abs/2112.07954v1
- Date: Wed, 15 Dec 2021 08:25:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 22:27:38.834979
- Title: Object Pursuit: Building a Space of Objects via Discriminative Weight
Generation
- Title(参考訳): 物体追跡:判別的重み生成による物体空間の構築
- Authors: Chuanyu Pan, Yanchao Yang, Kaichun Mo, Yueqi Duan, and Leonidas Guibas
- Abstract要約: 視覚学習と理解のためのオブジェクト中心表現を継続的に学習するフレームワークを提案する。
我々は、オブジェクト中心の表現を学習しながら、オブジェクトとそれに対応するトレーニング信号の多様なバリエーションをサンプリングするために、インタラクションを活用する。
提案するフレームワークの重要な特徴について広範な研究を行い,学習した表現の特徴を分析した。
- 参考スコア(独自算出の注目度): 23.85039747700698
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a framework to continuously learn object-centric representations
for visual learning and understanding. Existing object-centric representations
either rely on supervisions that individualize objects in the scene, or perform
unsupervised disentanglement that can hardly deal with complex scenes in the
real world. To mitigate the annotation burden and relax the constraints on the
statistical complexity of the data, our method leverages interactions to
effectively sample diverse variations of an object and the corresponding
training signals while learning the object-centric representations. Throughout
learning, objects are streamed one by one in random order with unknown
identities, and are associated with latent codes that can synthesize
discriminative weights for each object through a convolutional hypernetwork.
Moreover, re-identification of learned objects and forgetting prevention are
employed to make the learning process efficient and robust. We perform an
extensive study of the key features of the proposed framework and analyze the
characteristics of the learned representations. Furthermore, we demonstrate the
capability of the proposed framework in learning representations that can
improve label efficiency in downstream tasks. Our code and trained models will
be made publicly available.
- Abstract(参考訳): 視覚学習と理解のためのオブジェクト中心表現を継続的に学習するフレームワークを提案する。
既存のオブジェクト中心の表現は、シーン内のオブジェクトを識別する監督に依存するか、または現実世界の複雑なシーンにほとんど対処できない教師なしのアンタングルを実行する。
アノテーションの負担軽減とデータの統計的複雑さの制約緩和のために,本手法では,オブジェクト中心表現を学習しながら,オブジェクトと対応するトレーニング信号の多様なバリエーションを効果的にサンプリングする。
学習を通して、オブジェクトは未知のアイデンティティを持つランダムな順序で1つずつストリームされ、畳み込みのハイパーネットワークを通して各オブジェクトの識別重みを合成できる潜在コードと関連付けられる。
また、学習対象の再同定と学習プロセスを効率的かつ堅牢にするために、学習対象の欠落防止が用いられる。
提案するフレームワークの重要な特徴について広範な研究を行い,学習した表現の特徴を分析する。
さらに,下流タスクにおけるラベル効率を向上させるための表現学習における提案フレームワークの能力を示す。
私たちのコードとトレーニングされたモデルは公開されます。
関連論文リスト
- Zero-Shot Object-Centric Representation Learning [72.43369950684057]
ゼロショット一般化のレンズによる現在の対象中心法について検討する。
8つの異なる合成および実世界のデータセットからなるベンチマークを導入する。
多様な実世界の画像のトレーニングにより、見えないシナリオへの転送性が向上することがわかった。
論文 参考訳(メタデータ) (2024-08-17T10:37:07Z) - Mitigating Object Dependencies: Improving Point Cloud Self-Supervised Learning through Object Exchange [50.45953583802282]
我々は,ポイントクラウドシーン理解のための新たな自己教師型学習(SSL)戦略を導入する。
このアプローチでは、オブジェクトパターンとコンテキストキューの両方を活用して、堅牢な機能を生成します。
提案手法は既存のSSL技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-11T06:39:53Z) - Cycle Consistency Driven Object Discovery [75.60399804639403]
本研究では,シーンの各オブジェクトが異なるスロットに関連付けられなければならない制約を明示的に最適化する手法を提案する。
これらの一貫性目標を既存のスロットベースのオブジェクト中心手法に統合することにより、オブジェクト発見性能を大幅に改善することを示す。
提案手法は,オブジェクト発見を改善するだけでなく,下流タスクのよりリッチな機能も提供することを示唆している。
論文 参考訳(メタデータ) (2023-06-03T21:49:06Z) - Robust and Controllable Object-Centric Learning through Energy-based
Models [95.68748828339059]
我々の研究は概念的にシンプルで一般的なアプローチであり、エネルギーベースモデルを通してオブジェクト中心の表現を学習する。
既存のアーキテクチャに容易に統合でき、高品質なオブジェクト中心表現を効果的に抽出できることを示す。
論文 参考訳(メタデータ) (2022-10-11T15:11:15Z) - Matching Multiple Perspectives for Efficient Representation Learning [0.0]
本稿では,自己教師型学習とマルチパースペクティブマッチング技術を組み合わせたアプローチを提案する。
我々は,同一オブジェクトの複数ビューと多種多様な自己教師付き事前学習アルゴリズムを組み合わせることで,オブジェクト分類性能が向上することを示す。
論文 参考訳(メタデータ) (2022-08-16T10:33:13Z) - Self-Supervised Visual Representation Learning with Semantic Grouping [50.14703605659837]
我々は、未ラベルのシーン中心のデータから視覚表現を学習する問題に取り組む。
本研究では,データ駆動型セマンティックスロット,すなわちSlotConによる協調型セマンティックグルーピングと表現学習のためのコントラスト学習を提案する。
論文 参考訳(メタデータ) (2022-05-30T17:50:59Z) - Generalization and Robustness Implications in Object-Centric Learning [23.021791024676986]
本稿では,5つの共通オブジェクトデータセット上で,最先端の教師なしモデルを訓練する。
実験結果から,ダウンストリームタスクに一般的に有用なオブジェクト中心表現が得られた。
論文 参考訳(メタデータ) (2021-07-01T17:51:11Z) - Object-Centric Learning with Slot Attention [43.684193749891506]
我々は、知覚表現と相互作用するアーキテクチャコンポーネントであるSlot Attentionモジュールを提示する。
Slot Attentionは、スロットと呼ばれるタスク依存の抽象表現を生成します。
Slot Attentionがオブジェクト中心の表現を抽出し、未知の合成を一般化できることを実証的に実証する。
論文 参考訳(メタデータ) (2020-06-26T15:31:57Z) - Self-supervised Learning from a Multi-view Perspective [121.63655399591681]
自己教師型表現はタスク関連情報を抽出し,タスク関連情報を破棄することができることを示す。
我々の理論的枠組みは、自己教師型学習目標設計のより広い空間への道を開くものである。
論文 参考訳(メタデータ) (2020-06-10T00:21:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。