論文の概要: Concept Guided Co-saliency Objection Detection
- arxiv url: http://arxiv.org/abs/2412.16609v1
- Date: Sat, 21 Dec 2024 12:47:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:58:39.770817
- Title: Concept Guided Co-saliency Objection Detection
- Title(参考訳): コンセプトガイドによるコ・サリエンシ・オブジェクト検出
- Authors: Jiayi Zhu, Qing Guo, Felix Juefei-Xu, Yihao Huang, Yang Liu, Geguang Pu,
- Abstract要約: ConceptCoSODは、コ・サリエンシ・オブジェクト検出のための新しい概念誘導型アプローチである。
本研究では,コンセプションCoSODにより,背景の乱れや物体の変動がかなり大きい課題において,検出精度が大幅に向上することを示す。
- 参考スコア(独自算出の注目度): 22.82243087156918
- License:
- Abstract: The task of co-saliency object detection (Co-SOD) seeks to identify common, salient objects across a collection of images by examining shared visual features. However, traditional Co-SOD methods often encounter limitations when faced with diverse object variations (e.g., different postures) and irrelevant background elements that introduce noise. To address these challenges, we propose ConceptCoSOD, a novel concept-guided approach that leverages text semantic information to enhance Co-SOD performance by guiding the model to focus on consistent object features. Through rethinking Co-SOD as an (image-text)-to-image task instead of an image-to-image task, ConceptCoSOD first captures shared semantic concepts within an image group and then uses them as guidance for precise object segmentation in complex scenarios. Experimental results on three benchmark datasets and six corruptions reveal that ConceptCoSOD significantly improves detection accuracy, especially in challenging settings with considerable background distractions and object variability.
- Abstract(参考訳): コ・サリエンシ・オブジェクト検出(Co-SOD)の課題は、共有された視覚的特徴を調べることで、画像の集合全体にわたって、共通の、健全なオブジェクトを識別することである。
しかし、従来のCo-SOD法は、様々な物体のバリエーション(例えば、異なる姿勢)やノイズをもたらす無関係な背景要素に直面する場合、しばしば制限に直面する。
これらの課題に対処するために,テキスト意味情報を活用した新しい概念誘導型アプローチであるConceptCoSODを提案し,一貫性のあるオブジェクト特徴に焦点を合わせることによって,Co-SODのパフォーマンスを向上させる。
Co-SODをイメージからイメージへのタスクではなく、(画像テキスト)からイメージへのタスクとして再考することで、ConceptCoSODはまずイメージグループ内の共有セマンティック概念をキャプチャし、複雑なシナリオにおける正確なオブジェクトセグメンテーションのガイダンスとして使用する。
3つのベンチマークデータセットと6つの汚職に関する実験結果から、ConceptCoSODは検出精度を大幅に改善することが明らかになった。
関連論文リスト
- CoSformer: Detecting Co-Salient Object with Transformers [2.3148470932285665]
Co-Salient Object Detection (CoSOD) は、人間の視覚システムをシミュレートして、関連する画像のグループから共通および重度のオブジェクトを発見することを目的としています。
複数の画像から高精細かつ一般的な視覚パターンを抽出するCo-Salient Object Detection Transformer (CoSformer) ネットワークを提案する。
論文 参考訳(メタデータ) (2021-04-30T02:39:12Z) - SOSD-Net: Joint Semantic Object Segmentation and Depth Estimation from
Monocular images [94.36401543589523]
これら2つのタスクの幾何学的関係を利用するための意味的対象性の概念を紹介します。
次に, 対象性仮定に基づくセマンティックオブジェクト・深さ推定ネットワーク(SOSD-Net)を提案する。
私たちの知識を最大限に活用するために、SOSD-Netは同時単眼深度推定とセマンティックセグメンテーションのためのジオメトリ制約を利用する最初のネットワークです。
論文 参考訳(メタデータ) (2021-01-19T02:41:03Z) - CoADNet: Collaborative Aggregation-and-Distribution Networks for
Co-Salient Object Detection [91.91911418421086]
Co-Salient Object Detection (CoSOD)は、2つ以上の関連する画像を含む所定のクエリグループに繰り返し現れる健全なオブジェクトを発見することを目的としている。
課題の1つは、画像間の関係をモデリングし、活用することによって、コ・サリヤ・キューを効果的にキャプチャする方法である。
我々は,複数画像から有能かつ反復的な視覚パターンを捉えるために,エンドツーエンドの協調集約配信ネットワーク(CoADNet)を提案する。
論文 参考訳(メタデータ) (2020-11-10T04:28:11Z) - Tasks Integrated Networks: Joint Detection and Retrieval for Image
Search [99.49021025124405]
多くの現実世界の探索シナリオ(例えばビデオ監視)では、オブジェクトは正確に検出または注釈付けされることはめったにない。
まず、エンド・ツー・エンド統合ネット(I-Net)を紹介します。
さらに,2つの新しいコントリビューションを行うDC-I-Netという改良されたI-Netを提案する。
論文 参考訳(メタデータ) (2020-09-03T03:57:50Z) - Re-thinking Co-Salient Object Detection [170.44471050548827]
Co-Salient Object Detection (CoSOD) は、画像群において共起するサルエントオブジェクトを検出することを目的としている。
既存のCoSODデータセットは、画像の各グループに類似した視覚的外観の有能なオブジェクトが含まれていると仮定して、深刻なデータバイアスを持つことが多い。
我々はCoSOD3kと呼ばれる新しいベンチマークを野生で導入し、大量の意味的コンテキストを必要とする。
論文 参考訳(メタデータ) (2020-07-07T12:20:51Z) - Gradient-Induced Co-Saliency Detection [81.54194063218216]
Co-SOD(Co-saliency Detection)は、一般的な唾液前景を関連画像のグループに分割することを目的としている。
本稿では,人間の行動にインスパイアされた,勾配誘導型共分散検出法を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:40:55Z) - Object-Centric Image Generation from Layouts [93.10217725729468]
複数のオブジェクトを持つ複雑なシーンを生成するレイアウト・ツー・イメージ生成法を開発した。
本手法は,シーン内のオブジェクト間の空間的関係の表現を学習し,レイアウトの忠実度の向上につながる。
本稿では,Fr'echet Inception Distanceのオブジェクト中心適応であるSceneFIDを紹介する。
論文 参考訳(メタデータ) (2020-03-16T21:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。