論文の概要: Trans2k: Unlocking the Power of Deep Models for Transparent Object
Tracking
- arxiv url: http://arxiv.org/abs/2210.03436v1
- Date: Fri, 7 Oct 2022 10:08:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 14:19:14.148855
- Title: Trans2k: Unlocking the Power of Deep Models for Transparent Object
Tracking
- Title(参考訳): Trans2k:透明物体追跡のためのディープモデルのパワーを解き放つ
- Authors: Alan Lukezic and Ziga Trojer and Jiri Matas and Matej Kristan
- Abstract要約: 104,343枚の画像を含む2k以上のシーケンスからなる,最初の透明なオブジェクト追跡トレーニングデータセットであるTrans2kを提案する。
ドメイン固有の属性を定量化し、ビジュアル属性を含むデータセットをレンダリングし、既存のオブジェクトトレーニングデータセットではカバーされていない状況を追跡する。
データセットとレンダリングエンジンは、現代的な学習ベースのトラッカーのパワーを解放し、透明なオブジェクトトラッキングにおける新しいデザインを育むために、一般公開される。
- 参考スコア(独自算出の注目度): 41.039837388154
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual object tracking has focused predominantly on opaque objects, while
transparent object tracking received very little attention. Motivated by the
uniqueness of transparent objects in that their appearance is directly affected
by the background, the first dedicated evaluation dataset has emerged recently.
We contribute to this effort by proposing the first transparent object tracking
training dataset Trans2k that consists of over 2k sequences with 104,343 images
overall, annotated by bounding boxes and segmentation masks. Noting that
transparent objects can be realistically rendered by modern renderers, we
quantify domain-specific attributes and render the dataset containing visual
attributes and tracking situations not covered in the existing object training
datasets. We observe a consistent performance boost (up to 16%) across a
diverse set of modern tracking architectures when trained using Trans2k, and
show insights not previously possible due to the lack of appropriate training
sets. The dataset and the rendering engine will be publicly released to unlock
the power of modern learning-based trackers and foster new designs in
transparent object tracking.
- Abstract(参考訳): 視覚的物体追跡は主に不透明な物体に焦点を当てているが、透明な物体追跡はほとんど注目されなかった。
透明な物体の外観が背景の影響を直接受けていることに触発された最初の専用評価データセットが最近登場した。
2k 以上のシーケンスと 104,343 枚の画像からなる,最初の透過的オブジェクトトラッキングトレーニングデータセット trans2k をバウンディングボックスとセグメンテーションマスクでアノテートすることにより,この取り組みに寄与する。
透明なオブジェクトがモダンなレンダラーによって現実的にレンダリングできることに注目し、ドメイン固有の属性を定量化し、既存のオブジェクトトレーニングデータセットにカバーされていない視覚的属性と追跡状況を含むデータセットをレンダリングします。
Trans2kを使用したトレーニングでは,さまざまな現代的なトラッキングアーキテクチャに対して,一貫したパフォーマンス向上(最大16%)が見られ,適切なトレーニングセットが欠如していることから,これまで不可能であった洞察が得られます。
データセットとレンダリングエンジンは、モダンな学習ベースのトラッカーのパワーを解き放ち、透明なオブジェクトトラッキングで新しいデザインを育むために公開される予定だ。
関連論文リスト
- A New Dataset and a Distractor-Aware Architecture for Transparent Object
Tracking [34.08943612955157]
現代のトラッカーの性能は透明な物体に対して不透明な物体に比べて著しく低下する。
104,343枚の画像を含む2k以上のシーケンスからなる,最初の透明なオブジェクト追跡トレーニングデータセットであるTrans2kを提案する。
また,局所化精度と目標識別を個別のタスクとして扱うディストラプタ対応透明物体追跡器(DiTra)を提案する。
論文 参考訳(メタデータ) (2024-01-08T13:04:28Z) - Transparent Object Tracking with Enhanced Fusion Module [56.403878717170784]
我々は,我々の融合技術を用いて,透明物体追跡のための優れた結果を得る新しいトラッカーアーキテクチャを提案する。
我々の結果とコードの実装はhttps://github.com/kalyan05TOTEM.comで公開されます。
論文 参考訳(メタデータ) (2023-09-13T03:52:09Z) - TransNet: Transparent Object Manipulation Through Category-Level Pose
Estimation [6.844391823478345]
局所化深度補完と表面正規化を用いたカテゴリレベルの透明なオブジェクトポーズを推定する2段階パイプラインを提案する。
その結果,トランスネットは透明物体のポーズ推定精度の向上を実現していることがわかった。
われわれはTransNetを使って、ロボットピック・アンド・プレイスと注ぐタスクのための自律的透明なオブジェクト操作システムを構築している。
論文 参考訳(メタデータ) (2023-07-23T18:38:42Z) - Once Detected, Never Lost: Surpassing Human Performance in Offline LiDAR
based 3D Object Detection [50.959453059206446]
本稿では,高性能なオフラインLiDARによる3Dオブジェクト検出を実現することを目的とする。
まず、経験豊富な人間のアノテータが、トラック中心の視点でオブジェクトに注釈を付けるのを観察する。
従来のオブジェクト中心の視点ではなく,トラック中心の視点で高性能なオフライン検出器を提案する。
論文 参考訳(メタデータ) (2023-04-24T17:59:05Z) - Seeing Glass: Joint Point Cloud and Depth Completion for Transparent
Objects [16.714074893209713]
TranspareNetはジョイントポイントクラウドとディープコンプリートコンプリート方式である。
透明な物体の深さを、散らかって複雑な場面で埋めることができます。
TranspareNetは、既存の最先端のディープコンプリートメソッドを複数のデータセットで上回っている。
論文 参考訳(メタデータ) (2021-09-30T21:09:09Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - Transparent Object Tracking Benchmark [58.19532269423211]
Transparent Object Tracking Benchmarkは、15の異なる透明なオブジェクトカテゴリから225のビデオ(86Kフレーム)で構成されている。
我々の知る限りでは、TOTBは透明なオブジェクト追跡に特化した最初のベンチマークです。
今後の研究を促進するために,透過性を利用した新しいトラッカーであるTransATOMを導入する。
論文 参考訳(メタデータ) (2020-11-21T21:39:43Z) - Segmenting Transparent Objects in the Wild [98.80906604285163]
本研究は,手作業による注釈付き実シナリオの画像10,428枚からなるトランス10Kという,透明なオブジェクトセグメンテーションのための大規模データセットを提案する。
Trans10Kの有効性を評価するために,TransLabと呼ばれる新しい境界認識セグメンテーション手法を提案する。
論文 参考訳(メタデータ) (2020-03-31T04:44:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。