論文の概要: A New Dataset and a Distractor-Aware Architecture for Transparent Object
Tracking
- arxiv url: http://arxiv.org/abs/2401.03872v1
- Date: Mon, 8 Jan 2024 13:04:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 16:29:24.789104
- Title: A New Dataset and a Distractor-Aware Architecture for Transparent Object
Tracking
- Title(参考訳): 透明オブジェクト追跡のための新しいデータセットと気晴らしアウェアアーキテクチャ
- Authors: Alan Lukezic, Ziga Trojer, Jiri Matas, Matej Kristan
- Abstract要約: 現代のトラッカーの性能は透明な物体に対して不透明な物体に比べて著しく低下する。
104,343枚の画像を含む2k以上のシーケンスからなる,最初の透明なオブジェクト追跡トレーニングデータセットであるTrans2kを提案する。
また,局所化精度と目標識別を個別のタスクとして扱うディストラプタ対応透明物体追跡器(DiTra)を提案する。
- 参考スコア(独自算出の注目度): 34.08943612955157
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Performance of modern trackers degrades substantially on transparent objects
compared to opaque objects. This is largely due to two distinct reasons.
Transparent objects are unique in that their appearance is directly affected by
the background. Furthermore, transparent object scenes often contain many
visually similar objects (distractors), which often lead to tracking failure.
However, development of modern tracking architectures requires large training
sets, which do not exist in transparent object tracking. We present two
contributions addressing the aforementioned issues. We propose the first
transparent object tracking training dataset Trans2k that consists of over 2k
sequences with 104,343 images overall, annotated by bounding boxes and
segmentation masks. Standard trackers trained on this dataset consistently
improve by up to 16%. Our second contribution is a new distractor-aware
transparent object tracker (DiTra) that treats localization accuracy and target
identification as separate tasks and implements them by a novel architecture.
DiTra sets a new state-of-the-art in transparent object tracking and
generalizes well to opaque objects.
- Abstract(参考訳): 現代のトラッカーの性能は透明物体に対して不透明物体に比べて著しく低下する。
これは主に2つの異なる理由による。
透明な物体は、その外観が背景によって直接影響を受けるという点でユニークである。
さらに、透明なオブジェクトシーンには多くの視覚的に類似したオブジェクト(ディストリクタ)が含まれており、しばしば障害の追跡につながる。
しかし、現代のトラッキングアーキテクチャの開発には、透明なオブジェクト追跡には存在しない大きなトレーニングセットが必要である。
上記の問題に対する2つのコントリビューションを提示する。
2k以上のシーケンスと104,343の画像で構成され、ボックスとセグメンテーションマスクによって注釈付けされた最初の透明なオブジェクト追跡トレーニングデータセットTrans2kを提案する。
このデータセットでトレーニングされた標準トラッカーは、一貫して16%改善されている。
2つめの貢献は、位置推定精度とターゲット識別を別個のタスクとして扱い、新しいアーキテクチャでそれらを実装する、ditra(distributor-aware transparent object tracker)です。
ditraは透明なオブジェクト追跡に新たな最先端を設定し、不透明なオブジェクトにうまく一般化する。
関連論文リスト
- Transparent Object Tracking with Enhanced Fusion Module [56.403878717170784]
我々は,我々の融合技術を用いて,透明物体追跡のための優れた結果を得る新しいトラッカーアーキテクチャを提案する。
我々の結果とコードの実装はhttps://github.com/kalyan05TOTEM.comで公開されます。
論文 参考訳(メタデータ) (2023-09-13T03:52:09Z) - TransNet: Transparent Object Manipulation Through Category-Level Pose
Estimation [6.844391823478345]
局所化深度補完と表面正規化を用いたカテゴリレベルの透明なオブジェクトポーズを推定する2段階パイプラインを提案する。
その結果,トランスネットは透明物体のポーズ推定精度の向上を実現していることがわかった。
われわれはTransNetを使って、ロボットピック・アンド・プレイスと注ぐタスクのための自律的透明なオブジェクト操作システムを構築している。
論文 参考訳(メタデータ) (2023-07-23T18:38:42Z) - Trans2k: Unlocking the Power of Deep Models for Transparent Object
Tracking [41.039837388154]
104,343枚の画像を含む2k以上のシーケンスからなる,最初の透明なオブジェクト追跡トレーニングデータセットであるTrans2kを提案する。
ドメイン固有の属性を定量化し、ビジュアル属性を含むデータセットをレンダリングし、既存のオブジェクトトレーニングデータセットではカバーされていない状況を追跡する。
データセットとレンダリングエンジンは、現代的な学習ベースのトラッカーのパワーを解放し、透明なオブジェクトトラッキングにおける新しいデザインを育むために、一般公開される。
論文 参考訳(メタデータ) (2022-10-07T10:08:13Z) - TransNet: Category-Level Transparent Object Pose Estimation [6.844391823478345]
視覚的特徴の区別の欠如により、透明な物体は不透明な物体よりも検出と位置決めが困難になる。
第二の課題は、通常不透明物体の知覚に使用される一般的な深度センサーが透明物体の正確な深度測定を得ることができないことである。
局所的な深度補完と表面正規推定を用いてカテゴリレベルの透明なオブジェクトポーズを推定する2段階パイプラインであるTransNetを提案する。
論文 参考訳(メタデータ) (2022-08-22T01:34:31Z) - Robust Visual Tracking by Segmentation [103.87369380021441]
対象範囲を推定することは、視覚的物体追跡において根本的な課題となる。
高精度なセグメンテーションマスクを生成するセグメンテーション中心のトラッキングパイプラインを提案する。
我々のトラッカーは、シーンのターゲットを背景コンテンツと明確に区別するターゲット表現をよりよく学習することができる。
論文 参考訳(メタデータ) (2022-03-21T17:59:19Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - Transparent Object Tracking Benchmark [58.19532269423211]
Transparent Object Tracking Benchmarkは、15の異なる透明なオブジェクトカテゴリから225のビデオ(86Kフレーム)で構成されている。
我々の知る限りでは、TOTBは透明なオブジェクト追跡に特化した最初のベンチマークです。
今後の研究を促進するために,透過性を利用した新しいトラッカーであるTransATOMを導入する。
論文 参考訳(メタデータ) (2020-11-21T21:39:43Z) - Segmenting Transparent Objects in the Wild [98.80906604285163]
本研究は,手作業による注釈付き実シナリオの画像10,428枚からなるトランス10Kという,透明なオブジェクトセグメンテーションのための大規模データセットを提案する。
Trans10Kの有効性を評価するために,TransLabと呼ばれる新しい境界認識セグメンテーション手法を提案する。
論文 参考訳(メタデータ) (2020-03-31T04:44:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。