論文の概要: Multiple Object Stitching for Unsupervised Representation Learning
- arxiv url: http://arxiv.org/abs/2506.07364v1
- Date: Mon, 09 Jun 2025 02:28:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.780888
- Title: Multiple Object Stitching for Unsupervised Representation Learning
- Title(参考訳): 教師なし表現学習のためのマルチオブジェクトスティッチ
- Authors: Chengchao Shen, Dawei Liu, Jianxin Wang,
- Abstract要約: マルチオブジェクト画像の教師なし表現を洗練させる手法であるMultiple Object Stitchingを提案する。
提案手法は,人間のアノテーションを使わずに,多目的画像間の追加のオブジェクト対応を提供する。
ImageNet, CIFAR, COCOデータセットによる実験結果から, 提案手法が教師なし表現性能を先導することを示す。
- 参考スコア(独自算出の注目度): 11.087735229999817
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Contrastive learning for single object centric images has achieved remarkable progress on unsupervised representation, but suffering inferior performance on the widespread images with multiple objects. In this paper, we propose a simple but effective method, Multiple Object Stitching (MOS), to refine the unsupervised representation for multi-object images. Specifically, we construct the multi-object images by stitching the single object centric ones, where the objects in the synthesized multi-object images are predetermined. Hence, compared to the existing contrastive methods, our method provides additional object correspondences between multi-object images without human annotations. In this manner, our method pays more attention to the representations of each object in multi-object image, thus providing more detailed representations for complicated downstream tasks, such as object detection and semantic segmentation. Experimental results on ImageNet, CIFAR and COCO datasets demonstrate that our proposed method achieves the leading unsupervised representation performance on both single object centric images and multi-object ones. The source code is available at https://github.com/visresearch/MultipleObjectStitching.
- Abstract(参考訳): 単一対象中心画像に対するコントラスト学習は、教師なし表現において顕著な進歩を遂げたが、複数の対象を持つ広範画像では性能が劣っている。
本稿では,マルチオブジェクト画像の教師なし表現を洗練するための,単純かつ効果的なMOS法を提案する。
具体的には、合成された多対象画像内のオブジェクトが所定の位置にある単一対象中心画像を縫い合わせることで、多対象画像を構築する。
したがって、既存のコントラスト法と比較して、人間のアノテーションを使わずに、多目的画像間のオブジェクト対応を付加する。
このようにして,本手法は,オブジェクト検出やセマンティックセグメンテーションなどの複雑な下流タスクに対して,より詳細な表現を提供する。
ImageNet, CIFAR, COCOデータセットによる実験結果から, 提案手法は, 単一対象中心画像と多対象画像の両方において, 教師なし表現性能を先導することを示した。
ソースコードはhttps://github.com/visresearch/MultipleObjectStitching.comで入手できる。
関連論文リスト
- unMORE: Unsupervised Multi-Object Segmentation via Center-Boundary Reasoning [6.259786457043613]
教師なしマルチオブジェクトセグメンテーションは、単一画像において難しい問題である。
本稿では,現実世界の画像中の多くの複雑な物体を識別する新しい2段階パイプラインであるunMOREを紹介する。
本手法は,すべてのベースラインが崩壊する混雑した画像に優れる。
論文 参考訳(メタデータ) (2025-06-02T15:22:51Z) - Find your Needle: Small Object Image Retrieval via Multi-Object Attention Optimization [5.2337753974570616]
本研究では,小物体画像検索(SoIR)の課題に対処する。その目的は,特定の小物体を含む画像を,散らばったシーンで検索することである。
主な課題は、画像内のすべてのオブジェクトを効果的に表現する、スケーラブルで効率的な検索のための単一のイメージ記述子を構築することである。
専用多目的事前学習フェーズを組み込んだ新しい検索フレームワークであるMaO(Multi-object Attention Optimization)を導入する。
論文 参考訳(メタデータ) (2025-03-10T08:27:02Z) - ObjectMate: A Recurrence Prior for Object Insertion and Subject-Driven Generation [33.91045409317844]
本稿では,オブジェクト挿入と主観的生成の両方のためのチューニング不要な手法を提案する。
このタスクでは、複数のビューを与えられたオブジェクトを、画像またはテキストによって指定されたシーンにコンパイルする。
我々は,オブジェクト挿入と主観的生成の最先端手法と比較し,単一の参照や複数参照を用いて比較した。
論文 参考訳(メタデータ) (2024-12-11T18:59:53Z) - Retrieval Robust to Object Motion Blur [54.34823913494456]
本研究では,動きのぼやけの影響を受けやすい画像のオブジェクト検索手法を提案する。
ぼやけたオブジェクト検索のための最初の大規模データセットを提示する。
提案手法は,新しいぼやけた検索データセット上で,最先端の検索手法より優れている。
論文 参考訳(メタデータ) (2024-04-27T23:22:39Z) - Object-Centric Multiple Object Tracking [124.30650395969126]
本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
論文 参考訳(メタデータ) (2023-09-01T03:34:12Z) - Image Segmentation-based Unsupervised Multiple Objects Discovery [1.7674345486888503]
教師なしオブジェクト発見は、イメージ内のオブジェクトをローカライズすることを目的としている。
我々は,複数のオブジェクトの発見に対して,完全に教師なしのボトムアップアプローチを提案する。
我々は、教師なしクラス非依存オブジェクト検出と教師なしイメージセグメンテーションの両方に対して、最先端の結果を提供する。
論文 参考訳(メタデータ) (2022-12-20T09:48:24Z) - A Simple and Effective Use of Object-Centric Images for Long-Tailed
Object Detection [56.82077636126353]
シーン中心画像における物体検出を改善するために,物体中心画像を活用する。
私たちは、シンプルで驚くほど効果的なフレームワークを提示します。
我々の手法は、レアオブジェクトのオブジェクト検出(およびインスタンスセグメンテーション)の精度を相対的に50%(および33%)向上させることができる。
論文 参考訳(メタデータ) (2021-02-17T17:27:21Z) - Object-Centric Image Generation from Layouts [93.10217725729468]
複数のオブジェクトを持つ複雑なシーンを生成するレイアウト・ツー・イメージ生成法を開発した。
本手法は,シーン内のオブジェクト間の空間的関係の表現を学習し,レイアウトの忠実度の向上につながる。
本稿では,Fr'echet Inception Distanceのオブジェクト中心適応であるSceneFIDを紹介する。
論文 参考訳(メタデータ) (2020-03-16T21:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。