論文の概要: FTIO: Frequent Temporally Integrated Objects
- arxiv url: http://arxiv.org/abs/2508.16183v1
- Date: Fri, 22 Aug 2025 07:56:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:36.301318
- Title: FTIO: Frequent Temporally Integrated Objects
- Title(参考訳): FTIO: 頻繁な一時統合オブジェクト
- Authors: Mohammad Mohammadzadeh Kalati, Farhad Maleki, Ian McQuillan,
- Abstract要約: 頻繁な一時統合オブジェクト(FTIO)は、2つの主要なコンポーネントを持つ後処理フレームワークである。
まず、ビデオオブジェクト(VOS)タスクに共通する障害を軽減し、オブジェクト選択を改善するために、組み合わせた基準を導入する。
第二に、欠落したオブジェクトマスク領域を統合することで、時間的不整合を補正する3段階の手法を提案する。
- 参考スコア(独自算出の注目度): 4.970364068620607
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Predicting and tracking objects in real-world scenarios is a critical challenge in Video Object Segmentation (VOS) tasks. Unsupervised VOS (UVOS) has the additional challenge of finding an initial segmentation of salient objects, which affects the entire process and keeps a permanent uncertainty about the object proposals. Moreover, deformation and fast motion can lead to temporal inconsistencies. To address these problems, we propose Frequent Temporally Integrated Objects (FTIO), a post-processing framework with two key components. First, we introduce a combined criterion to improve object selection, mitigating failures common in UVOS--particularly when objects are small or structurally complex--by extracting frequently appearing salient objects. Second, we present a three-stage method to correct temporal inconsistencies by integrating missing object mask regions. Experimental results demonstrate that FTIO achieves state-of-the-art performance in multi-object UVOS. Code is available at: https://github.com/MohammadMohammadzadehKalati/FTIO
- Abstract(参考訳): 実世界のシナリオにおけるオブジェクトの予測と追跡は、ビデオオブジェクトセグメンテーション(VOS)タスクにおいて重要な課題である。
教師なしVOS(UVOS)は、プロセス全体に影響を及ぼし、オブジェクトの提案に対する恒久的な不確実性を維持する、有能なオブジェクトの最初のセグメンテーションを見つけるという、さらなる課題を持っている。
さらに、変形と高速な動きは時間的不整合を引き起こす可能性がある。
これらの問題に対処するために,2つの主要なコンポーネントを持つ後処理フレームワークであるFrequent Temporally Integrated Objects (FTIO)を提案する。
まず,UVOSに共通する障害を軽減し,オブジェクト選択を改善するために,組み合わせた基準を導入する。
第二に、欠落したオブジェクトマスク領域を統合することで、時間的不整合を補正する3段階の手法を提案する。
実験により, FTIOは多目的UVOSの最先端性能を実現することが示された。
コードは、https://github.com/MohammadMohammadzadehKalati/FTIOで入手できる。
関連論文リスト
- Discriminative Spatial-Semantic VOS Solution: 1st Place Solution for 6th LSVOS [68.47681139026666]
ビデオオブジェクトセグメンテーション(VOS)はコンピュータビジョンにおいて重要な課題である。
現在のVOS法は複雑なシーンと長い物体の動きに苦しむ。
本報告では,空間時空間VOSモデルについて述べる。
論文 参考訳(メタデータ) (2024-08-29T10:47:17Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - Object-Centric Multiple Object Tracking [124.30650395969126]
本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
論文 参考訳(メタデータ) (2023-09-01T03:34:12Z) - Spatial-Temporal Graph Enhanced DETR Towards Multi-Frame 3D Object Detection [54.041049052843604]
STEMDは,多フレーム3Dオブジェクト検出のためのDETRのようなパラダイムを改良した,新しいエンドツーエンドフレームワークである。
まず、オブジェクト間の空間的相互作用と複雑な時間的依存をモデル化するために、空間的時間的グラフアテンションネットワークを導入する。
最後に、ネットワークが正のクエリと、ベストマッチしない他の非常に類似したクエリを区別することが課題となる。
論文 参考訳(メタデータ) (2023-07-01T13:53:14Z) - BEVStereo++: Accurate Depth Estimation in Multi-view 3D Object Detection
via Dynamic Temporal Stereo [6.5401888641091634]
時間的多視点ステレオ(MVS)技術は、この曖昧さに対処するための自然な知識である。
動的時間的ステレオ戦略を導入することで、BEVStereo++は、時間的ステレオを導入することによってもたらされる害を削減できる。
BEVStereo++は、データセットとnuSceneの両方で最先端(SOTA)を実現する。
論文 参考訳(メタデータ) (2023-04-09T08:04:26Z) - Tackling Background Distraction in Video Object Segmentation [7.187425003801958]
ビデオオブジェクトセグメンテーション(VOS)は、ビデオ内の特定のオブジェクトを密に追跡することを目的としている。
このタスクの主な課題の1つは、ターゲットオブジェクトに類似したように見えるバックグラウンド・トラクタの存在である。
このような混乱を抑制するための3つの新しい戦略を提案する。
我々のモデルは,リアルタイムな性能であっても,現代の最先端手法に匹敵する性能を実現している。
論文 参考訳(メタデータ) (2022-07-14T14:25:19Z) - Scalable Video Object Segmentation with Identification Mechanism [125.4229430216776]
本稿では,半教師付きビデオオブジェクト(VOS)のスケーラブルで効果的なマルチオブジェクトモデリングを実現する上での課題について検討する。
AOT(Associating Objects with Transformers)とAOST(Associating Objects with Scalable Transformers)の2つの革新的なアプローチを提案する。
当社のアプローチは最先端の競合に勝って,6つのベンチマークすべてにおいて,例外的な効率性とスケーラビリティを一貫して示しています。
論文 参考訳(メタデータ) (2022-03-22T03:33:27Z) - How to track your dragon: A Multi-Attentional Framework for real-time
RGB-D 6-DOF Object Pose Tracking [35.21561169636035]
本稿では,リアルタイムRGB-D 6Dオブジェクトのポーズトラッキング問題に対処するために,新しい多目的畳み込みアーキテクチャを提案する。
物体の3次元モデルとポーズ空間の両方の特別な幾何学的性質を考察し、トレーニング中のデータ拡張により洗練されたアプローチを用いる。
論文 参考訳(メタデータ) (2020-04-21T23:00:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。