論文の概要: Utilizing Grounded SAM for self-supervised frugal camouflaged human detection
- arxiv url: http://arxiv.org/abs/2406.05776v1
- Date: Sun, 9 Jun 2024 13:19:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-11 18:07:23.196106
- Title: Utilizing Grounded SAM for self-supervised frugal camouflaged human detection
- Title(参考訳): グラウンドドSAMを用いた自己教師型フラッグスカモフラーグ法によるヒト検出
- Authors: Matthias Pijarowski, Alexander Wolpert, Martin Heckmann, Michael Teutsch,
- Abstract要約: カモフラーゲ型物体検出のタスクには, 自己教師型学習法とフラゴール型学習法の両方が導入された。
微調整作業のための教師付きフラジカルトランスファー学習を用いて,強力なベースラインを作成する。
本実験は, フル教師付きフラガラル学習と比較して, 純粋な自己超越によって同様の性能が得られることを示す。
- 参考スコア(独自算出の注目度): 43.52281022671451
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visually detecting camouflaged objects is a hard problem for both humans and computer vision algorithms. Strong similarities between object and background appearance make the task significantly more challenging than traditional object detection or segmentation tasks. Current state-of-the-art models use either convolutional neural networks or vision transformers as feature extractors. They are trained in a fully supervised manner and thus need a large amount of labeled training data. In this paper, both self-supervised and frugal learning methods are introduced to the task of Camouflaged Object Detection (COD). The overall goal is to fine-tune two COD reference methods, namely SINet-V2 and HitNet, pre-trained for camouflaged animal detection to the task of camouflaged human detection. Therefore, we use the public dataset CPD1K that contains camouflaged humans in a forest environment. We create a strong baseline using supervised frugal transfer learning for the fine-tuning task. Then, we analyze three pseudo-labeling approaches to perform the fine-tuning task in a self-supervised manner. Our experiments show that we achieve similar performance by pure self-supervision compared to fully supervised frugal learning.
- Abstract(参考訳): カモフラージュされた物体を視覚的に検出することは、人間とコンピュータの視覚アルゴリズムの両方にとって難しい問題である。
オブジェクトと背景の外観の強い類似性は、従来のオブジェクト検出やセグメンテーションタスクよりもタスクを著しく困難にします。
現在の最先端モデルは、畳み込みニューラルネットワークまたは視覚変換器を特徴抽出器として使用している。
完全に教師された方法でトレーニングされるので、大量のラベル付きトレーニングデータが必要です。
本稿では,カモフラーゲ型物体検出(COD)の課題に対して,自己教師型学習法とフラッグ型学習法の両方を導入する。
全体的なゴールは、2つのCOD参照メソッド、すなわちSINet-V2とHitNetを微調整することである。
そこで,森林環境下でカモフラージュした人間を含む公共データセットCPD1Kを用いた。
微調整作業のための教師付きフラジカルトランスファー学習を用いて,強力なベースラインを作成する。
そこで我々は,3つの擬似ラベル手法を自己教師付き手法で解析し,微調整作業を行う。
本実験は, フル教師付きフラガラル学習と比較して, 純粋な自己超越によって同様の性能が得られることを示す。
関連論文リスト
- Heuristic Vision Pre-Training with Self-Supervised and Supervised
Multi-Task Learning [0.0]
マルチタスク方式で自己教師型と教師型の両方の視覚的プレテキストタスクを採用することで、新しい事前学習フレームワークを提案する。
その結果、事前学習したモデルでは、複数の視覚的タスクにおいて、最先端(SOTA)結果と同等以上の結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-10-11T14:06:04Z) - Camouflaged Image Synthesis Is All You Need to Boost Camouflaged
Detection [65.8867003376637]
本研究では,カモフラージュデータの合成フレームワークを提案する。
提案手法では,既存の物体検出モデルのトレーニングに使用可能な,現実的なカモフラージュ画像の生成に生成モデルを用いる。
我々のフレームワークは3つのデータセット上で最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-08-13T06:55:05Z) - The Art of Camouflage: Few-Shot Learning for Animal Detection and Segmentation [21.047026366450197]
カモフラージュされた物体の検出とセグメンテーションにおける数ショット学習の問題に対処する。
そこで我々は, Camouflaged インスタンスを効率的に検出・分割するフレームワーク FS-CDIS を提案する。
提案手法は,新たに収集したデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2023-04-15T01:33:14Z) - Towards Deeper Understanding of Camouflaged Object Detection [64.81987999832032]
バイナリセグメンテーション設定は、カモフラージュの概念を完全に理解できない。
そこで本研究では,カモフラージュされたオブジェクトの局所化,セグメント化,ランク付けを同時に行う3段階学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-23T14:26:18Z) - SEAL: Self-supervised Embodied Active Learning using Exploration and 3D
Consistency [122.18108118190334]
本稿では,SEAL(Self-Embodied Embodied Active Learning)というフレームワークを提案する。
インターネットイメージ上で訓練された知覚モデルを使用して、積極的な探索ポリシーを学ぶ。
我々は3Dセマンティックマップを用いて、行動と知覚の両方を、完全に自己管理された方法で学習する。
論文 参考訳(メタデータ) (2021-12-02T06:26:38Z) - One-Shot Object Affordance Detection in the Wild [76.46484684007706]
Affordance Detectionは、画像内のオブジェクトの潜在的なアクション可能性を特定することを指す。
我々は、人間の行動目的を推定し、それを転送して、すべての候補画像から共通価格を検出するワンショットアフォーダンス検出ネットワーク(OSAD-Net)を考案する。
複雑なシーンと豊富なアノテーションによって、当社のPADv2データセットは、アベイランス検出メソッドをベンチマークするためのテストベッドとして使用することができます。
論文 参考訳(メタデータ) (2021-08-08T14:53:10Z) - Move to See Better: Self-Improving Embodied Object Detection [35.461141354989714]
本研究では,テスト環境における物体検出の改善手法を提案する。
エージェントは、多視点データを収集し、2Dおよび3D擬似ラベルを生成し、その検出器を自己監督的に微調整する。
論文 参考訳(メタデータ) (2020-11-30T19:16:51Z) - Co-training for On-board Deep Object Detection [0.0]
人間のラベル付きバウンディングボックスを頼りにすることにより、最高のディープビジョンベースのオブジェクト検出器を教師付きで訓練する。
共同学習は、未ラベル画像における自己ラベルオブジェクトの半教師付き学習手法である。
我々は、協調学習がオブジェクトのラベル付けを緩和し、タスクに依存しないドメイン適応と単独で作業するためのパラダイムであることを示す。
論文 参考訳(メタデータ) (2020-08-12T19:08:59Z) - Self-Supervised Viewpoint Learning From Image Collections [116.56304441362994]
本稿では,解析・合成パラダイムを取り入れた新たな学習フレームワークを提案する。
提案手法は,人間の顔,車,バス,電車など,複数の対象カテゴリに対して,完全に教師されたアプローチに対して競争力を発揮することを示す。
論文 参考訳(メタデータ) (2020-04-03T22:01:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。