論文の概要: CLOVER: Context-aware Long-term Object Viewpoint- and Environment- Invariant Representation Learning
- arxiv url: http://arxiv.org/abs/2407.09718v1
- Date: Fri, 12 Jul 2024 23:16:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 21:08:35.983788
- Title: CLOVER: Context-aware Long-term Object Viewpoint- and Environment- Invariant Representation Learning
- Title(参考訳): CLOVER:コンテキストを考慮した長期オブジェクト視点と環境不変表現学習
- Authors: Dongmyeong Lee, Amanda Adkins, Joydeep Biswas,
- Abstract要約: 様々な照明条件と視点下での8クラス557個のオブジェクトの1,037,814個の観測を含む,Wild オブジェクト再識別データセット CODa Re-ID を紹介する。
また,静的なオブジェクトインスタンスを区別可能なオブジェクト観測のための表現学習手法であるCLOVERを提案する。
- 参考スコア(独自算出の注目度): 7.376512548629663
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In many applications, robots can benefit from object-level understanding of their environments, including the ability to distinguish object instances and re-identify previously seen instances. Object re-identification is challenging across different viewpoints and in scenes with significant appearance variation arising from weather or lighting changes. Most works on object re-identification focus on specific classes; approaches that address general object re-identification require foreground segmentation and have limited consideration of challenges such as occlusions, outdoor scenes, and illumination changes. To address this problem, we introduce CODa Re-ID: an in-the-wild object re-identification dataset containing 1,037,814 observations of 557 objects of 8 classes under diverse lighting conditions and viewpoints. Further, we propose CLOVER, a representation learning method for object observations that can distinguish between static object instances. Our results show that CLOVER achieves superior performance in static object re-identification under varying lighting conditions and viewpoint changes, and can generalize to unseen instances and classes.
- Abstract(参考訳): 多くのアプリケーションにおいて、ロボットは、オブジェクトインスタンスを識別したり、以前見たインスタンスを再識別する機能を含む、環境のオブジェクトレベルの理解の恩恵を受けることができる。
オブジェクトの再識別は、異なる視点や、天気や照明の変化に起因する顕著な外観の変化のあるシーンで困難である。
一般的な対象の再識別に対処するアプローチは、前景のセグメンテーションを必要とし、オクルージョン、屋外シーン、照明変更といった課題について限定的に考慮する。
様々な照明条件と視点下での8クラスの557個のオブジェクトの1,037,814個の観測を含む,地中オブジェクト再識別データセットであるCODa Re-IDを紹介する。
さらに,静的なオブジェクトインスタンスを区別可能なオブジェクト観測のための表現学習手法であるCLOVERを提案する。
この結果から,CLOVERは照明条件や視点変化の異なる静的オブジェクト再識別において優れた性能を示し,未知のインスタンスやクラスに一般化できることがわかった。
関連論文リスト
- Towards Reflected Object Detection: A Benchmark [5.981658448641905]
本稿では,反射物体検出に特化して設計されたベンチマークを紹介する。
我々のリフレクションオブジェクト検出データセット(RODD)は、様々なコンテキストにおいて反射オブジェクトを示す多様な画像のコレクションを特徴としている。
RODDは10のカテゴリを包含し、異なる背景にまたがる21,059のリアルおよびリフレクションオブジェクトの画像を含んでいる。
論文 参考訳(メタデータ) (2024-07-08T03:16:05Z) - Mitigating Object Dependencies: Improving Point Cloud Self-Supervised Learning through Object Exchange [50.45953583802282]
我々は,ポイントクラウドシーン理解のための新たな自己教師型学習(SSL)戦略を導入する。
このアプローチでは、オブジェクトパターンとコンテキストキューの両方を活用して、堅牢な機能を生成します。
提案手法は既存のSSL技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-11T06:39:53Z) - Learning State-Invariant Representations of Objects from Image Collections with State, Pose, and Viewpoint Changes [0.6577148087211809]
我々は、任意の視点から記録されたオブジェクト画像の状態をキャプチャし、バリエーションを示す新しいデータセット、ObjectsWithStateChangeを提案する。
このような研究の目的は、状態変化に不変なオブジェクト埋め込みを生成することができるモデルをトレーニングすることである。
本稿では,各エポック後に学習した埋め込み空間における類似性関係を利用して学習過程を指導するカリキュラム学習戦略を提案する。
論文 参考訳(メタデータ) (2024-04-09T17:17:48Z) - OSCaR: Object State Captioning and State Change Representation [52.13461424520107]
本稿では,OSCaR(Object State Captioning and State Change Representation)データセットとベンチマークを紹介する。
OSCaRは14,084の注釈付きビデオセグメントで構成され、様々なエゴセントリックなビデオコレクションから1,000近いユニークなオブジェクトが集められている。
マルチモーダル大言語モデル(MLLM)を評価するための新しいテストベッドを設定する。
論文 参考訳(メタデータ) (2024-02-27T01:48:19Z) - Chat-3D v2: Bridging 3D Scene and Large Language Models with Object
Identifiers [62.232809030044116]
会話中にオブジェクトを自由に参照するためにオブジェクト識別子を導入する。
本稿では,属性認識トークンと関係認識トークンを各オブジェクトに対して学習する2段階アライメント手法を提案する。
ScanQA、ScanRefer、Nr3D/Sr3Dといった従来のデータセットで行った実験は、提案手法の有効性を示した。
論文 参考訳(メタデータ) (2023-12-13T14:27:45Z) - AnyDoor: Zero-shot Object-level Image Customization [63.44307304097742]
ユーザが指定した場所の新しいシーンにターゲットオブジェクトをテレポートする機能を備えた拡散ベースのイメージジェネレータであるAnyDoorを紹介する。
我々のモデルは1回のみ訓練され、推論段階では多様なオブジェクトとシーンの組み合わせに懸命に一般化される。
論文 参考訳(メタデータ) (2023-07-18T17:59:02Z) - Universal Instance Perception as Object Discovery and Retrieval [90.96031157557806]
UNIは多様なインスタンス認識タスクを統一されたオブジェクト発見・検索パラダイムに再構成する。
入力プロンプトを変更するだけで、さまざまな種類のオブジェクトを柔軟に知覚することができる。
UNIは10のインスタンスレベルのタスクから20の挑戦的なベンチマークで優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-03-12T14:28:24Z) - Object Instance Identification in Dynamic Environments [19.009931116468294]
本研究では,オブジェクトと対話する動的環境において,オブジェクトのインスタンスを識別する問題について検討する。
EPIC-KITCHENSデータセット上に構築された1500以上のインスタンスのベンチマークを構築した。
実験結果から, (i) インスタンス固有の外観変化(ii) 低レベル(色, テクスチャ)と高レベル(オブジェクトカテゴリなど)の機能の統合に対する堅牢性が必要であることが示唆された。
論文 参考訳(メタデータ) (2022-06-10T18:38:10Z) - Contrastive Object Detection Using Knowledge Graph Embeddings [72.17159795485915]
一つのホットアプローチで学習したクラス埋め込みの誤差統計と、自然言語処理や知識グラフから意味的に構造化された埋め込みを比較した。
本稿では,キーポイントベースおよびトランスフォーマーベースオブジェクト検出アーキテクチャの知識埋め込み設計を提案する。
論文 参考訳(メタデータ) (2021-12-21T17:10:21Z) - Object-Centric Representation Learning with Generative Spatial-Temporal
Factorization [5.403549896734018]
DyMON(Dynamics-Aware Multi-Object Network)は,動的シーンへの多視点オブジェクト中心表現学習の範囲を広げる手法である。
そこで我々は,DyMONが観測者の動きとシーンオブジェクトの運動の絡み合った影響を,一連の観測結果から分解することを学習していることを示す。
また,要因化されたシーン表現は,空間と時間で独立して単一のオブジェクトを問合せできることを示す。
論文 参考訳(メタデータ) (2021-11-09T20:04:16Z) - Object Instance Mining for Weakly Supervised Object Detection [24.021995037282394]
本稿では,オブジェクト検出の弱いエンドツーエンドのオブジェクトインスタンスマイニング(OIM)フレームワークを提案する。
OIMは、空間グラフと外観グラフに情報伝搬を導入することにより、各画像に存在する全ての可能なオブジェクトインスタンスを検知しようとする。
反復学習プロセスでは、同一クラスからの識別の少ないオブジェクトインスタンスを徐々に検出し、トレーニングに利用することができる。
論文 参考訳(メタデータ) (2020-02-04T02:11:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。