論文の概要: Tracking and Understanding Object Transformations
- arxiv url: http://arxiv.org/abs/2511.04678v1
- Date: Thu, 06 Nov 2025 18:59:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.581476
- Title: Tracking and Understanding Object Transformations
- Title(参考訳): オブジェクト変換の追跡と理解
- Authors: Yihong Sun, Xinyu Yang, Jennifer J. Sun, Bharath Hariharan,
- Abstract要約: 我々は、状態変化を検出し、記述しながら、変換を通してオブジェクトを追跡する、Track Any Stateのタスクを紹介します。
ゼロショットシステムであるTubletGraphは、トランスフォーメーション後のオブジェクトを復元し、時間とともにオブジェクトの状態がどのように進化しているかをマップする。
TubeletGraphは、複雑なオブジェクト変換のための時間的接地と意味論的推論において、オブジェクト変換と有望な能力の深い理解を実現する。
- 参考スコア(独自算出の注目度): 43.15129025464927
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-world objects frequently undergo state transformations. From an apple being cut into pieces to a butterfly emerging from its cocoon, tracking through these changes is important for understanding real-world objects and dynamics. However, existing methods often lose track of the target object after transformation, due to significant changes in object appearance. To address this limitation, we introduce the task of Track Any State: tracking objects through transformations while detecting and describing state changes, accompanied by a new benchmark dataset, VOST-TAS. To tackle this problem, we present TubeletGraph, a zero-shot system that recovers missing objects after transformation and maps out how object states are evolving over time. TubeletGraph first identifies potentially overlooked tracks, and determines whether they should be integrated based on semantic and proximity priors. Then, it reasons about the added tracks and generates a state graph describing each observed transformation. TubeletGraph achieves state-of-the-art tracking performance under transformations, while demonstrating deeper understanding of object transformations and promising capabilities in temporal grounding and semantic reasoning for complex object transformations. Code, additional results, and the benchmark dataset are available at https://tubelet-graph.github.io.
- Abstract(参考訳): 現実世界のオブジェクトは状態変換を頻繁に行う。
リンゴが粉々に切り刻まれることから、コクーンから出てくる蝶まで、これらの変化を追跡することは、現実世界の物体やダイナミクスを理解する上で重要である。
しかし、既存の手法は、オブジェクトの外観が大幅に変化したため、変換後に対象オブジェクトの追跡を失うことが多い。
この制限に対処するため、我々は、新しいベンチマークデータセットVOST-TASを伴って、状態変化を検出し、記述しながら、変換を通してオブジェクトを追跡するTrack Any Stateというタスクを紹介した。
この問題に対処するために、ゼロショットシステムであるTubletGraphを紹介し、変換後のオブジェクトを復元し、時間とともにオブジェクト状態がどのように進化しているかをマップする。
TubeletGraphは、まず見落とされがちなトラックを特定し、セマンティックや近接した事前情報に基づいて統合されるべきかどうかを判断する。
そして、加算されたトラックを推論し、各観測された変換を記述した状態グラフを生成する。
TubeletGraphは、オブジェクト変換の深い理解と、複雑なオブジェクト変換のための時間的グラウンドディングとセマンティック推論における有望な能力を示しながら、変換下での最先端のトラッキング性能を実現する。
コード、追加結果、ベンチマークデータセットはhttps://tubelet-graph.github.io.comで公開されている。
関連論文リスト
- Mash, Spread, Slice! Learning to Manipulate Object States via Visual Spatial Progress [53.723881111373736]
SPARTAは、オブジェクトの状態変化操作タスクのファミリーで最初に統合されたフレームワークである。
SPARTAは、空間的に進行するオブジェクト変化のセグメンテーションマップ、実行可能領域と変換可能領域を知覚する視覚的スキル、時間とともに漸進的な進歩を捉える高密度報酬を統合している。
SPARTAを現実のロボットで検証し、10種類の現実世界のオブジェクトにまたがる3つの課題について検討する。
論文 参考訳(メタデータ) (2025-09-28T23:56:07Z) - SPOC: Spatially-Progressing Object State Change Segmentation in Video [52.65373395382122]
本稿では,空間的に進行するオブジェクト状態変化セグメンテーションタスクを紹介する。
目標は、アクション可能なオブジェクトと変換されるオブジェクトのピクセルレベルの領域をセグメント化することです。
本研究は,ロボットエージェントに役立てるために,活動進行の追跡に有用であることを示す。
論文 参考訳(メタデータ) (2025-03-15T01:48:54Z) - M$^3$-VOS: Multi-Phase, Multi-Transition, and Multi-Scenery Video Object Segmentation [51.82272563578793]
本稿では,その視覚的特徴と潜在的な形態的・外見的変化に基づいて,現実世界の物体を分類するセグメンテーションにおける位相の概念を紹介する。
本稿では,オブジェクトの位相を理解するためのモデルの有効性を検証するために,新しいベンチマーク,Multi-Phase,Multi-Transition,Multi-Scenery Video Object (M$3$-VOS)を提案する。
論文 参考訳(メタデータ) (2024-12-18T12:50:11Z) - A Dataset and Framework for Learning State-invariant Object Representations [0.6577148087211809]
我々は、任意の視点から記録されたオブジェクト画像の状態をキャプチャし、バリエーションを付加する新しいデータセット、ObjectsWithStateChangeを提案する。
カリキュラム学習が果たす役割に関連するアブレーションは, 対象認識精度が7.9%向上し, 検索mAPが9.2%向上したことを示す。
論文 参考訳(メタデータ) (2024-04-09T17:17:48Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。