論文の概要: Segmenting Transparent Objects in the Wild
- arxiv url: http://arxiv.org/abs/2003.13948v3
- Date: Sun, 2 Aug 2020 03:32:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 01:05:26.101504
- Title: Segmenting Transparent Objects in the Wild
- Title(参考訳): 野生における透明物体のセグメンテーション
- Authors: Enze Xie, Wenjia Wang, Wenhai Wang, Mingyu Ding, Chunhua Shen, Ping
Luo
- Abstract要約: 本研究は,手作業による注釈付き実シナリオの画像10,428枚からなるトランス10Kという,透明なオブジェクトセグメンテーションのための大規模データセットを提案する。
Trans10Kの有効性を評価するために,TransLabと呼ばれる新しい境界認識セグメンテーション手法を提案する。
- 参考スコア(独自算出の注目度): 98.80906604285163
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transparent objects such as windows and bottles made by glass widely exist in
the real world. Segmenting transparent objects is challenging because these
objects have diverse appearance inherited from the image background, making
them had similar appearance with their surroundings. Besides the technical
difficulty of this task, only a few previous datasets were specially designed
and collected to explore this task and most of the existing datasets have major
drawbacks. They either possess limited sample size such as merely a thousand of
images without manual annotations, or they generate all images by using
computer graphics method (i.e. not real image). To address this important
problem, this work proposes a large-scale dataset for transparent object
segmentation, named Trans10K, consisting of 10,428 images of real scenarios
with carefully manual annotations, which are 10 times larger than the existing
datasets. The transparent objects in Trans10K are extremely challenging due to
high diversity in scale, viewpoint and occlusion as shown in Fig. 1. To
evaluate the effectiveness of Trans10K, we propose a novel boundary-aware
segmentation method, termed TransLab, which exploits boundary as the clue to
improve segmentation of transparent objects. Extensive experiments and ablation
studies demonstrate the effectiveness of Trans10K and validate the practicality
of learning object boundary in TransLab. For example, TransLab significantly
outperforms 20 recent object segmentation methods based on deep learning,
showing that this task is largely unsolved. We believe that both Trans10K and
TransLab have important contributions to both the academia and industry,
facilitating future researches and applications.
- Abstract(参考訳): 窓やガラス製の瓶などの透明な物体は現実世界に広く存在している。
透明な物体のセグメンテーションは、画像背景から受け継がれた多様な外観を持ち、周囲と類似した外観を持つため、困難である。
このタスクの技術的難しさに加えて、このタスクを探索するために特別に設計された、いくつかの以前のデータセットのみが収集される。
手動のアノテーションを使わずに数千枚の画像に制限されたサンプルサイズを持つか、コンピュータグラフィックス(すなわち実際の画像ではない)を使って全ての画像を生成する。
この重要な問題に対処するために、本研究では、トランス10kと呼ばれる透明なオブジェクトセグメンテーションのための大規模データセットを提案し、既存のデータセットの10倍の大きさの手動アノテーションを備えた、実際のシナリオの10,428の画像からなる。
図1に示すように、Trans10Kの透明な物体はスケール、視点、閉塞の多様性が高いため、非常に難しい。
本稿では,トランス10kの有効性を評価するために,境界を透明な物体のセグメンテーションを改善する手掛かりとして利用する新しい境界認識セグメンテーション手法であるtranslabを提案する。
広範囲にわたる実験とアブレーション研究は、Trans10Kの有効性を示し、TransLabにおける学習対象境界の実用性を検証する。
例えば、TransLabは、ディープラーニングに基づく20の最近のオブジェクトセグメンテーションメソッドを著しく上回り、このタスクがほとんど未解決であることを示している。
Trans10KとTransLabはどちらも学術と産業の両方に重要な貢献をしており、将来の研究や応用を促進すると信じています。
関連論文リスト
- LAC-Net: Linear-Fusion Attention-Guided Convolutional Network for Accurate Robotic Grasping Under the Occlusion [79.22197702626542]
本稿では, 乱れ場面におけるロボットグルーピングのためのアモーダルセグメンテーションを探求する枠組みを提案する。
線形融合注意誘導畳み込みネットワーク(LAC-Net)を提案する。
その結果,本手法が最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-08-06T14:50:48Z) - A New Dataset and a Distractor-Aware Architecture for Transparent Object
Tracking [34.08943612955157]
現代のトラッカーの性能は透明な物体に対して不透明な物体に比べて著しく低下する。
104,343枚の画像を含む2k以上のシーケンスからなる,最初の透明なオブジェクト追跡トレーニングデータセットであるTrans2kを提案する。
また,局所化精度と目標識別を個別のタスクとして扱うディストラプタ対応透明物体追跡器(DiTra)を提案する。
論文 参考訳(メタデータ) (2024-01-08T13:04:28Z) - Transparent Object Tracking with Enhanced Fusion Module [56.403878717170784]
我々は,我々の融合技術を用いて,透明物体追跡のための優れた結果を得る新しいトラッカーアーキテクチャを提案する。
我々の結果とコードの実装はhttps://github.com/kalyan05TOTEM.comで公開されます。
論文 参考訳(メタデータ) (2023-09-13T03:52:09Z) - TransNet: Transparent Object Manipulation Through Category-Level Pose
Estimation [6.844391823478345]
局所化深度補完と表面正規化を用いたカテゴリレベルの透明なオブジェクトポーズを推定する2段階パイプラインを提案する。
その結果,トランスネットは透明物体のポーズ推定精度の向上を実現していることがわかった。
われわれはTransNetを使って、ロボットピック・アンド・プレイスと注ぐタスクのための自律的透明なオブジェクト操作システムを構築している。
論文 参考訳(メタデータ) (2023-07-23T18:38:42Z) - Trans2k: Unlocking the Power of Deep Models for Transparent Object
Tracking [41.039837388154]
104,343枚の画像を含む2k以上のシーケンスからなる,最初の透明なオブジェクト追跡トレーニングデータセットであるTrans2kを提案する。
ドメイン固有の属性を定量化し、ビジュアル属性を含むデータセットをレンダリングし、既存のオブジェクトトレーニングデータセットではカバーされていない状況を追跡する。
データセットとレンダリングエンジンは、現代的な学習ベースのトラッカーのパワーを解放し、透明なオブジェクトトラッキングにおける新しいデザインを育むために、一般公開される。
論文 参考訳(メタデータ) (2022-10-07T10:08:13Z) - TransCG: A Large-Scale Real-World Dataset for Transparent Object Depth
Completion and Grasping [46.6058840385155]
我々は、透明な物体深度を補完する大規模な実世界のデータセットをコントリビュートする。
データセットには、130の異なるシーンから57,715枚のRGB-D画像が含まれている。
本稿では,RGB画像と不正確な深度マップを入力とし,精細化された深度マップを出力するエンド・ツー・エンドの深度補完ネットワークを提案する。
論文 参考訳(メタデータ) (2022-02-17T06:50:20Z) - Seeing Glass: Joint Point Cloud and Depth Completion for Transparent
Objects [16.714074893209713]
TranspareNetはジョイントポイントクラウドとディープコンプリートコンプリート方式である。
透明な物体の深さを、散らかって複雑な場面で埋めることができます。
TranspareNetは、既存の最先端のディープコンプリートメソッドを複数のデータセットで上回っている。
論文 参考訳(メタデータ) (2021-09-30T21:09:09Z) - FakeMix Augmentation Improves Transparent Object Detection [24.540569928274984]
境界関係の不均衡問題を克服するために、FakeMixと呼ばれる新しいコンテンツ依存データ拡張法を提案する。
また,マルチスケールおよびクロスモダリティ機能を動的にキャプチャ可能な,asppの拡張版であるadaptiveasppも紹介する。
論文 参考訳(メタデータ) (2021-03-24T15:51:37Z) - Segmenting Transparent Object in the Wild with Transformer [47.97930429998238]
本稿では、trans10k-v2と呼ばれる、trans10k-v1を拡張する新しい細粒度透明オブジェクトセグメンテーションデータセットを提案する。
それは人間の国内環境で一般的に起こる透明なオブジェクトの11細かいカテゴリを持っています。
Trans2Segと呼ばれる新しいトランスフォーマーベースのセグメンテーションパイプラインを提案する。
論文 参考訳(メタデータ) (2021-01-21T06:41:00Z) - Refined Plane Segmentation for Cuboid-Shaped Objects by Leveraging Edge
Detection [63.942632088208505]
本稿では,セグメント化された平面マスクを画像に検出されたエッジと整列するための後処理アルゴリズムを提案する。
これにより、立方体形状の物体に制限を加えながら、最先端のアプローチの精度を高めることができます。
論文 参考訳(メタデータ) (2020-03-28T18:51:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。