論文の概要: MessyTable: Instance Association in Multiple Camera Views
- arxiv url: http://arxiv.org/abs/2007.14878v1
- Date: Wed, 29 Jul 2020 14:57:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 20:26:24.424104
- Title: MessyTable: Instance Association in Multiple Camera Views
- Title(参考訳): MessyTable: 複数のカメラビューにおけるインスタンスアソシエーション
- Authors: Zhongang Cai, Junzhe Zhang, Daxuan Ren, Cunjun Yu, Haiyu Zhao, Shuai
Yi, Chai Kiat Yeo, Chen Change Loy
- Abstract要約: 複数のカメラビューから取得した乱雑なテーブルを備えた多数のシーンを特徴とする、興味深く挑戦的なデータセットを提示する。
主要な課題は、すべてのビューのRGBイメージが与えられたすべてのインスタンスを関連付けることです。
いくつかの一般的なベースラインで興味深い発見を報告し、このデータセットが新しい問題を引き起こすのにどのように役立つかについて議論する。
- 参考スコア(独自算出の注目度): 88.47887608277804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an interesting and challenging dataset that features a large
number of scenes with messy tables captured from multiple camera views. Each
scene in this dataset is highly complex, containing multiple object instances
that could be identical, stacked and occluded by other instances. The key
challenge is to associate all instances given the RGB image of all views. The
seemingly simple task surprisingly fails many popular methods or heuristics
that we assume good performance in object association. The dataset challenges
existing methods in mining subtle appearance differences, reasoning based on
contexts, and fusing appearance with geometric cues for establishing an
association. We report interesting findings with some popular baselines, and
discuss how this dataset could help inspire new problems and catalyse more
robust formulations to tackle real-world instance association problems. Project
page:
$\href{https://caizhongang.github.io/projects/MessyTable/}{\text{MessyTable}}$
- Abstract(参考訳): 複数のカメラビューから取得した乱雑なテーブルを備えた多数のシーンを特徴とする、興味深く挑戦的なデータセットを提示する。
このデータセットの各シーンは非常に複雑で、複数のオブジェクトインスタンスが含まれており、同じ、積み上げられ、他のインスタンスによって隠蔽される。
主要な課題は、すべてのビューのRGBイメージが与えられたすべてのインスタンスを関連付けることです。
一見単純なタスクは、オブジェクトアソシエーションで優れたパフォーマンスを仮定する多くの一般的なメソッドやヒューリスティックに驚くほど失敗する。
このデータセットは、微妙な外観の違いのマイニング、文脈に基づく推論、および連想を確立するための幾何学的手がかりと融合する既存の手法に挑戦する。
いくつかの一般的なベースラインで興味深い発見を報告し、このデータセットが新たな問題を誘発し、現実のインスタンス関連問題に対処するためにより堅牢な定式化を触媒する方法について論じる。
プロジェクトページ: $\href{https://caizhongang.github.io/projects/MessyTable/}{\text{MessyTable}}$
関連論文リスト
- 1st Place Solution for MOSE Track in CVPR 2024 PVUW Workshop: Complex Video Object Segmentation [72.54357831350762]
本稿では,ビデオオブジェクトのセグメンテーションモデルを提案する。
我々は大規模ビデオオブジェクトセグメンテーションデータセットを用いてモデルを訓練した。
我々のモデルは、複雑なビデオオブジェクトチャレンジのテストセットで1位(textbf84.45%)を達成した。
論文 参考訳(メタデータ) (2024-06-07T03:13:46Z) - Matching Anything by Segmenting Anything [109.2507425045143]
我々は、堅牢なインスタンスアソシエーション学習のための新しい手法であるMASAを提案する。
MASAは、徹底的なデータ変換を通じてインスタンスレベルの対応を学習する。
完全アノテートされたドメイン内ビデオシーケンスでトレーニングした最先端の手法よりも,MASAの方が優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2024-06-06T16:20:07Z) - DOCTR: Disentangled Object-Centric Transformer for Point Scene Understanding [7.470587868134298]
ポイントシーン理解は、現実世界のシーンポイントクラウドを処理する上で難しいタスクです。
最近の最先端の手法はまず各オブジェクトを分割し、次に異なるサブタスクの複数のステージで独立に処理する。
本稿では,オブジェクト中心表現を探索するDECTR(Disentangled Object-Centric TRansformer)を提案する。
論文 参考訳(メタデータ) (2024-03-25T05:22:34Z) - Universal Instance Perception as Object Discovery and Retrieval [90.96031157557806]
UNIは多様なインスタンス認識タスクを統一されたオブジェクト発見・検索パラダイムに再構成する。
入力プロンプトを変更するだけで、さまざまな種類のオブジェクトを柔軟に知覚することができる。
UNIは10のインスタンスレベルのタスクから20の挑戦的なベンチマークで優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-03-12T14:28:24Z) - SupeRGB-D: Zero-shot Instance Segmentation in Cluttered Indoor
Environments [67.34330257205525]
本研究では,RGB-Dデータからゼロショットのインスタンスセグメンテーション(ZSIS)を探索し,意味的カテゴリに依存しない方法で未知のオブジェクトを識別する。
本稿では,注釈付きオブジェクトを用いて画素のオブジェクト性」を学習し,乱雑な屋内環境における未知のオブジェクトカテゴリに一般化する手法を提案する。
論文 参考訳(メタデータ) (2022-12-22T17:59:48Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - Addressing Multiple Salient Object Detection via Dual-Space Long-Range
Dependencies [3.8824028205733017]
正常なオブジェクト検出は多くの下流タスクで重要な役割を果たす。
空間空間とチャネル空間の両方に非局所的特徴情報を組み込んだネットワークアーキテクチャを提案する。
複雑なシナリオであっても,本手法は複数の有能な領域を正確に特定できることを示す。
論文 参考訳(メタデータ) (2021-11-04T23:16:53Z) - iShape: A First Step Towards Irregular Shape Instance Segmentation [20.165491181983434]
iShapeは、インスタンスセグメンテーションのための不規則な形状データセットである。
iShapeには、既存のインスタンスセグメンテーションアルゴリズムに挑戦する多くの特徴がある。
我々は、より強力なベースラインとして、親和性に基づくASISと呼ばれるインスタンスセグメンテーションアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-30T12:30:16Z) - Robust Instance Segmentation through Reasoning about Multi-Object
Occlusion [9.536947328412198]
本稿では,隠蔽に頑健な多目的インスタンスセグメンテーションのためのディープネットワークを提案する。
私たちの研究は、神経機能アクティベーションの生成モデルを学習し、オクローダの発見に役立てています。
特に、オブジェクトクラスとそのインスタンスおよびオクルーダーセグメンテーションのフィードフォワード予測を得る。
論文 参考訳(メタデータ) (2020-12-03T17:41:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。