論文の概要: MotionBits: Video Segmentation through Motion-Level Analysis of Rigid Bodies
- arxiv url: http://arxiv.org/abs/2603.06846v1
- Date: Fri, 06 Mar 2026 20:11:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:13.196255
- Title: MotionBits: Video Segmentation through Motion-Level Analysis of Rigid Bodies
- Title(参考訳): MotionBits: 剛体の動きレベル解析によるビデオセグメンテーション
- Authors: Howard H. Qian, Kejia Ren, Yu Xiang, Vicente Ordonez, Kaiyu Hang,
- Abstract要約: 我々は、空間的ツイスト等価性を通じて、モーションベースセグメンテーションの最小単位を定義する概念であるMotionBitを紹介する。
我々は,(1)MotionBitの概念と定義,(2)MoriBoと呼ばれる手作業によるロボット操作と人体ビデオ間の剛体セグメンテーションを評価するベンチマーク,(3)マクロ平均mIoUで37.3%の精度で,学習不要なグラフベースのMotionBitsセグメンテーション手法を提案する。
- 参考スコア(独自算出の注目度): 14.755300270962337
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rigid bodies constitute the smallest manipulable elements in the real world, and understanding how they physically interact is fundamental to embodied reasoning and robotic manipulation. Thus, accurate detection, segmentation, and tracking of moving rigid bodies is essential for enabling reasoning modules to interpret and act in diverse environments. However, current segmentation models trained on semantic grouping are limited in their ability to provide meaningful interaction-level cues for completing embodied tasks. To address this gap, we introduce MotionBit, a novel concept that, unlike prior formulations, defines the smallest unit in motion-based segmentation through kinematic spatial twist equivalence, independent of semantics. In this paper, we contribute (1) the MotionBit concept and definition, (2) a hand-labeled benchmark, called MoRiBo, for evaluating moving rigid-body segmentation across robotic manipulation and human-in-the-wild videos, and (3) a learning-free graph-based MotionBits segmentation method that outperforms state-of-the-art embodied perception methods by 37.3\% in macro-averaged mIoU on the MoRiBo benchmark. Finally, we demonstrate the effectiveness of MotionBits segmentation for downstream embodied reasoning and manipulation tasks, highlighting its importance as a fundamental primitive for understanding physical interactions.
- Abstract(参考訳): 剛体は現実世界で最小の操作可能な要素であり、物理的にどのように相互作用するかを理解することは、推論とロボット操作の具体化に不可欠である。
したがって、移動する剛体の正確な検出、セグメンテーション、追跡は、モジュールの解釈と様々な環境での動作を可能にするために不可欠である。
しかし、セマンティックグルーピングに基づいて訓練された現在のセグメンテーションモデルは、エンボディ化されたタスクを完了するための意味のある相互作用レベルの手がかりを提供する能力に制限されている。
このギャップに対処するために、前述した定式化とは異なり、運動に基づく分節の最小単位を、意味論とは無関係に運動的空間的ツイスト同値性によって定義する、新しい概念であるMotionBitを導入する。
本稿では,(1)MotionBitの概念と定義,(2)MoriBoと呼ばれる手作業によるロボット操作と人体ビデオ間の剛体セグメンテーションを評価するためのベンチマーク,(3)MotionBitsのセグメンテーション手法を用いて,MoriBoベンチマークのマクロ平均mIoUを37.3倍に向上させる学習自由グラフベースのセグメンテーション手法を提案する。
最後に、下流の推論および操作タスクに対するMotionBitsセグメンテーションの有効性を実証し、物理相互作用を理解するための基本的なプリミティブとしての重要性を強調した。
関連論文リスト
- Segment Any Motion in Videos [80.72424676419755]
本研究では,長距離軌道運動キューとDINOに基づく意味的特徴を組み合わせた移動物体セグメンテーションを提案する。
本モデルでは,動作を優先し,セマンティックサポートを統合しつつ,時空間軌道注意と動き・セマンティック・デカップリング・エンベディングを用いた。
論文 参考訳(メタデータ) (2025-03-28T09:34:11Z) - Semi-Weakly Supervised Object Kinematic Motion Prediction [56.282759127180306]
3Dオブジェクトが与えられた場合、運動予測は移動部と対応する運動パラメータを識別することを目的としている。
階層的部分分割と移動部パラメータのマップを学習するグラフニューラルネットワークを提案する。
ネットワーク予測は、擬似ラベル付き移動情報を持つ大規模な3Dオブジェクトを生成する。
論文 参考訳(メタデータ) (2023-03-31T02:37:36Z) - InstMove: Instance Motion for Object-centric Video Segmentation [70.16915119724757]
本研究では,オブジェクト中心ビデオのインスタンス・モーションを表すInstMoveとインスタンス・レベル・モーションについて検討する。
InstMoveは主に画像特徴の埋め込みのないインスタンスレベルのモーション情報に依存している。
数行のコードだけで、InstMoveは3つの異なるビデオセグメンテーションタスクのために、現在のSOTAメソッドに統合できる。
論文 参考訳(メタデータ) (2023-03-14T17:58:44Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - Self-supervised Sparse to Dense Motion Segmentation [13.888344214818737]
単一ビデオフレームからスパース動作セグメントの密度化を学習するための自己教師付き手法を提案する。
FBMS59 と DAVIS16 でよく知られた動作セグメンテーションデータセットについて検討した。
論文 参考訳(メタデータ) (2020-08-18T11:40:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。