論文の概要: ORGAN: Object-Centric Representation Learning using Cycle Consistent Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2603.02063v1
- Date: Mon, 02 Mar 2026 16:51:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.981331
- Title: ORGAN: Object-Centric Representation Learning using Cycle Consistent Generative Adversarial Networks
- Title(参考訳): ORGAN:Cycle Consistent Generative Adversarial Networksを用いたオブジェクト指向表現学習
- Authors: Joël Küchler, Ellen van Maren, Vaiva Vasiliauskaitė, Katarina Vulić, Reza Abbasi-Asl, Stephan J. Ihle,
- Abstract要約: 本稿ではオブジェクト指向表現学習の新しいアプローチであるORGANを提案する。
代わりに、サイクル一貫性のあるジェネレーティブ・アドバイサル・ネットワークをベースとしている。
合成データセットに対する他の最先端アプローチと同様に動作することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Although data generation is often straightforward, extracting information from data is more difficult. Object-centric representation learning can extract information from images in an unsupervised manner. It does so by segmenting an image into its subcomponents: the objects. Each object is then represented in a low-dimensional latent space that can be used for downstream processing. Object-centric representation learning is dominated by autoencoder architectures (AEs). Here, we present ORGAN, a novel approach for object-centric representation learning, which is based on cycle-consistent Generative Adversarial Networks instead. We show that it performs similarly to other state-of-the-art approaches on synthetic datasets, while at the same time being the only approach tested here capable of handling more challenging real-world datasets with many objects and low visual contrast. Complementing these results, ORGAN creates expressive latent space representations that allow for object manipulation. Finally, we show that ORGAN scales well both with respect to the number of objects and the size of the images, giving it a unique edge over current state-of-the-art approaches.
- Abstract(参考訳): データ生成は単純であることが多いが、データから情報を抽出することはより困難である。
オブジェクト中心表現学習は、教師なしの方法で画像から情報を抽出することができる。
イメージをサブコンポーネント(オブジェクト)にセグメント化することで、そうする。
それぞれのオブジェクトは低次元の潜在空間で表現され、下流処理に使用できる。
オブジェクト指向表現学習はオートエンコーダアーキテクチャ(AE)によって支配される。
本稿では,オブジェクト指向表現学習の新しい手法であるORGANについて述べる。
合成データセットにおける他の最先端のアプローチと同様の動作を示すと同時に、多くのオブジェクトと低い視覚コントラストを持つより困難な現実世界データセットを扱うことができる、ここでテストされた唯一のアプローチである。
これらの結果を補完するORGANは、オブジェクト操作を可能にする表現的な潜在空間表現を生成する。
最後に、ORGANは、オブジェクトの数と画像サイズの両方においてうまくスケールし、現在の最先端のアプローチよりも独自のエッジを提供することを示す。
関連論文リスト
- Finding NeMO: A Geometry-Aware Representation of Template Views for Few-Shot Perception [9.145558382187524]
本稿では、RGB画像を用いたトレーニング中に見つからない物体の6DoFポーズの検出、セグメント化、推定に使用できる新しいオブジェクト中心表現を提案する。
本手法は,オブジェクトがスパースなオブジェクトのような点群を生成するために,オブジェクトを描写するRGBテンプレートビューを少数必要とするようなエンコーダから構成される。
次に、デコーダは、オブジェクトをクエリ画像とともに符号化し、様々な密集した予測を生成する。
論文 参考訳(メタデータ) (2026-02-04T09:12:05Z) - Object Pose Estimation Using Implicit Representation For Transparent Objects [0.0]
レンダリング・アンド・コンペア法は、オブジェクトを複数のビューからレンダリングし、与えられた2D画像と比較する。
物体がニューラルラジアンス場(NeRF)の形で暗黙(ニューラル)表現として表現されている場合、実際のシーンをよりリアルに表現できることが示される。
我々は、透過的なデータセット上でのレンダリング・アンド・コンペア法のNeRF実装を評価し、現在の最先端結果を上回る結果を得た。
論文 参考訳(メタデータ) (2024-10-17T11:51:12Z) - Top-Down Guidance for Learning Object-Centric Representations [30.06924788022504]
Top-Down Guided Network (TDGNet)は、オブジェクト中心の表現を改善するためのトップダウンパスである。
TDGNetは、様々な複雑さを持つ複数のデータセットにおいて、現在のオブジェクト中心モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-05-17T07:48:27Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Object Scene Representation Transformer [56.40544849442227]
オブジェクトシーン表現変換(OSRT: Object Scene Representation Transformer)は、新しいビュー合成を通じて、個々のオブジェクト表現が自然に現れる3D中心のモデルである。
OSRTは、既存のメソッドよりもオブジェクトとバックグラウンドの多様性が大きい、はるかに複雑なシーンにスケールする。
光電場パラメトリゼーションと新しいSlot Mixerデコーダのおかげで、合成レンダリングでは桁違いに高速である。
論文 参考訳(メタデータ) (2022-06-14T15:40:47Z) - Self-Supervised Learning of Object Parts for Semantic Segmentation [7.99536002595393]
我々は、オブジェクト部品の自己教師型学習がこの問題の解決策であると主張している。
本手法は3つのセマンティックセグメンテーションベンチマークの最先端を17%-3%超える。
論文 参考訳(メタデータ) (2022-04-27T17:55:17Z) - Complex-Valued Autoencoders for Object Discovery [62.26260974933819]
本稿では,オブジェクト中心表現に対する分散アプローチとして,複合オートエンコーダを提案する。
このシンプルで効率的なアプローチは、単純なマルチオブジェクトデータセット上の等価な実数値オートエンコーダよりも、より良い再構成性能を実現することを示す。
また、2つのデータセット上のSlotAttentionモデルと競合しないオブジェクト発見性能を実現し、SlotAttentionが失敗する第3のデータセットでオブジェクトをアンタングルする。
論文 参考訳(メタデータ) (2022-04-05T09:25:28Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Learning RGB-D Feature Embeddings for Unseen Object Instance
Segmentation [67.88276573341734]
合成データからRGB-D特徴埋め込みを学習し,オブジェクトのインスタンスセグメンテーションを未確認する手法を提案する。
距離学習損失関数を用いて画素単位の機能埋め込みを学習する。
新たな2段階クラスタリングアルゴリズムにより,セグメンテーションの精度をさらに向上する。
論文 参考訳(メタデータ) (2020-07-30T00:23:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。