論文の概要: FakeMix Augmentation Improves Transparent Object Detection
- arxiv url: http://arxiv.org/abs/2103.13279v1
- Date: Wed, 24 Mar 2021 15:51:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-25 13:54:49.204903
- Title: FakeMix Augmentation Improves Transparent Object Detection
- Title(参考訳): FakeMixによる透明物体検出の改善
- Authors: Yang Cao, Zhengqiang Zhang, Enze Xie, Qibin Hou, Kai Zhao, Xiangui
Luo, Jian Tuo
- Abstract要約: 境界関係の不均衡問題を克服するために、FakeMixと呼ばれる新しいコンテンツ依存データ拡張法を提案する。
また,マルチスケールおよびクロスモダリティ機能を動的にキャプチャ可能な,asppの拡張版であるadaptiveasppも紹介する。
- 参考スコア(独自算出の注目度): 24.540569928274984
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting transparent objects in natural scenes is challenging due to the low
contrast in texture, brightness and colors. Recent deep-learning-based works
reveal that it is effective to leverage boundaries for transparent object
detection (TOD). However, these methods usually encounter boundary-related
imbalance problem, leading to limited generation capability. Detailly, a kind
of boundaries in the background, which share the same characteristics with
boundaries of transparent objects but have much smaller amounts, usually hurt
the performance. To conquer the boundary-related imbalance problem, we propose
a novel content-dependent data augmentation method termed FakeMix. Considering
collecting these trouble-maker boundaries in the background is hard without
corresponding annotations, we elaborately generate them by appending the
boundaries of transparent objects from other samples into the current image
during training, which adjusts the data space and improves the generalization
of the models. Further, we present AdaptiveASPP, an enhanced version of ASPP,
that can capture multi-scale and cross-modality features dynamically. Extensive
experiments demonstrate that our methods clearly outperform the
state-of-the-art methods. We also show that our approach can also transfer well
on related tasks, in which the model meets similar troubles, such as mirror
detection, glass detection, and camouflaged object detection. Code will be made
publicly available.
- Abstract(参考訳): 自然界における透明な物体の検出は、テクスチャ、明るさ、色彩のコントラストが低いため困難である。
近年のディープラーニングに基づく研究は、透明物体検出(TOD)における境界の活用が効果的であることを示している。
しかし、これらの手法は通常境界関連の不均衡問題に遭遇し、生成能力が制限される。
背景のバウンダリは、透明なオブジェクトの境界と同じ特徴を持っているが、それよりもはるかに少ない量であり、通常はパフォーマンスを損なう。
境界関連不均衡問題を解決するために,フェイクミックスと呼ばれる新しいコンテンツ依存データ拡張手法を提案する。
背景にあるこれらのトラブルメーカー境界をアノテーションなしで収集することは難しいので、トレーニング中に他のサンプルから透明なオブジェクトの境界を現在の画像に付加することで、データ空間を調整し、モデルの一般化を改善することで、精巧に生成する。
さらに,マルチスケールおよびクロスモダリティ機能を動的にキャプチャ可能なasppの拡張版であるadaptiveasppを提案する。
広範な実験により,我々の手法が最先端の手法よりも明らかに優れていることが証明された。
また, 鏡面検出, ガラス検出, 迷彩物体検出など, モデルが類似した問題点を満たしているタスクに対して, 提案手法がうまく対応できることを示す。
コードは公開される予定だ。
関連論文リスト
- ZoomNeXt: A Unified Collaborative Pyramid Network for Camouflaged Object Detection [70.11264880907652]
最近のオブジェクト(COD)は、現実のシナリオでは極めて複雑で難しい、視覚的にブレンドされたオブジェクトを周囲に分割しようと試みている。
本研究では,不明瞭な画像を観察したり,ズームインしたりアウトしたりする際の人間の行動を模倣する,効果的な統合協調ピラミッドネットワークを提案する。
我々のフレームワークは、画像とビデオのCODベンチマークにおいて、既存の最先端の手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-10-31T06:11:23Z) - TransTouch: Learning Transparent Objects Depth Sensing Through Sparse
Touches [23.87056600709768]
本研究では,触覚フィードバックを持つ探索システムを用いて,疎深度ラベルを自動収集したステレオネットワークを微調整する手法を提案する。
提案手法は,特に透明物体に対して,現実世界の深度検出精度を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-09-18T01:55:17Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - A bioinspired three-stage model for camouflaged object detection [8.11866601771984]
本稿では,1回の繰り返しで粗い部分分割を可能にする3段階モデルを提案する。
本モデルでは, 3つのデコーダを用いて, サブサンプル特徴, 収穫特徴, および高解像度のオリジナル特徴を逐次処理する。
我々のネットワークは、不要な複雑さを伴わずに最先端のCNNベースのネットワークを上回る。
論文 参考訳(メタデータ) (2023-05-22T02:01:48Z) - CamDiff: Camouflage Image Augmentation via Diffusion Model [83.35960536063857]
CamDiffは、カモフラージュされたシーンで透明なオブジェクトを合成するための新しいアプローチだ。
我々は,潜伏拡散モデルを用いて,カモフラージュされたシーンで有能な物体を合成する。
当社のアプローチでは、フレキシブルな編集と大規模データセットの効率的な生成を低コストで実現している。
論文 参考訳(メタデータ) (2023-04-11T19:37:47Z) - Multitask AET with Orthogonal Tangent Regularity for Dark Object
Detection [84.52197307286681]
暗黒環境下でのオブジェクト検出を強化するために,新しいマルチタスク自動符号化変換(MAET)モデルを提案する。
自己超越的な方法で、MAETは、現実的な照明劣化変換を符号化して復号することで、本質的な視覚構造を学習する。
我々は,合成および実世界のデータセットを用いて最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2022-05-06T16:27:14Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - Zoom In and Out: A Mixed-scale Triplet Network for Camouflaged Object
Detection [0.0]
本稿では,不明瞭な画像を観察する際の人間の動作を模倣する混合スケール三重項ネットワークbf ZoomNetを提案する。
具体的には、ZoomNetは、ズーム戦略を用いて、設計されたスケール統合ユニットと階層的な混合スケールユニットによって、差別的な混合スケール意味学を学ぶ。
提案したタスクフレンドリなモデルは、4つの公開データセット上の既存の23の最先端手法を一貫して上回っている。
論文 参考訳(メタデータ) (2022-03-05T09:13:52Z) - Segmenting Transparent Objects in the Wild [98.80906604285163]
本研究は,手作業による注釈付き実シナリオの画像10,428枚からなるトランス10Kという,透明なオブジェクトセグメンテーションのための大規模データセットを提案する。
Trans10Kの有効性を評価するために,TransLabと呼ばれる新しい境界認識セグメンテーション手法を提案する。
論文 参考訳(メタデータ) (2020-03-31T04:44:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。