論文の概要: Free Lunch for Co-Saliency Detection: Context Adjustment
- arxiv url: http://arxiv.org/abs/2108.02093v1
- Date: Wed, 4 Aug 2021 14:51:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-05 16:32:48.102352
- Title: Free Lunch for Co-Saliency Detection: Context Adjustment
- Title(参考訳): 共分散検出のための自由ランチ:コンテキスト調整
- Authors: Lingdong Kong, Prakhar Ganesh, Tan Wang, Junhao Liu, Yao Chen, Le
Zhang
- Abstract要約: 市販のサリエンシ検出データセットからの画像を利用して新しいサンプルを合成する「コストフリー」グループカットペースト(GCP)手順を提案する。
我々は、Context Adjustment Trainingと呼ばれる新しいデータセットを収集します。データセットの2つのバリエーション、すなわち、CATとCAT+は、それぞれ16,750と33,500の画像で構成されています。
- 参考スコア(独自算出の注目度): 14.688461235328306
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We unveil a long-standing problem in the prevailing co-saliency detection
systems: there is indeed inconsistency between training and testing.
Constructing a high-quality co-saliency detection dataset involves
time-consuming and labor-intensive pixel-level labeling, which has forced most
recent works to rely instead on semantic segmentation or saliency detection
datasets for training. However, the lack of proper co-saliency and the absence
of multiple foreground objects in these datasets can lead to spurious
variations and inherent biases learned by models. To tackle this, we introduce
the idea of counterfactual training through context adjustment, and propose a
"cost-free" group-cut-paste (GCP) procedure to leverage images from
off-the-shelf saliency detection datasets and synthesize new samples. Following
GCP, we collect a novel dataset called Context Adjustment Training. The two
variants of our dataset, i.e., CAT and CAT+, consist of 16,750 and 33,500
images, respectively. All images are automatically annotated with high-quality
masks. As a side-product, object categories, as well as edge information, are
also provided to facilitate other related works. Extensive experiments with
state-of-the-art models are conducted to demonstrate the superiority of our
dataset. We hope that the scale, diversity, and quality of CAT/CAT+ can benefit
researchers in this area and beyond. The dataset and benchmark toolkit will be
accessible through our project page.
- Abstract(参考訳): トレーニングとテストの間には、確かに矛盾があるのです。
高品質な共存検出データセットの構築には、時間と労働集約的なピクセルレベルのラベル付けが伴うため、最近の研究では、トレーニングのためにセマンティックセグメンテーションやサリエンシ検出データセットに頼らざるを得なくなった。
しかし、適切な共存性の欠如と、これらのデータセットに複数の前景オブジェクトがないことは、モデルによって学習された急激な変動と固有のバイアスを引き起こす可能性がある。
そこで本研究では,コンテキスト調整による対実的トレーニングの概念を導入し,市販のサリエンシ検出データセットからの画像を利用して新しいサンプルを合成する,"コストフリー"グループカットペースト(GCP)手順を提案する。
GCPに続いて、コンテキスト調整トレーニングと呼ばれる新しいデータセットを収集します。
データセットの2つの変種、すなわちCATとCAT+はそれぞれ16,750と33,500の画像で構成されている。
すべての画像は自動的に高品質のマスクでアノテートされる。
副産物として、他の関連する作業を促進するために、オブジェクトカテゴリやエッジ情報も提供される。
データセットの優越性を示すため,最先端モデルを用いた広範な実験を行った。
CAT/CAT+の規模、多様性、品質が、この分野の研究者に利益をもたらすことを期待しています。
datasetとbenchmark toolkitは、私たちのプロジェクトページからアクセスできます。
関連論文リスト
- Bilevel Fast Scene Adaptation for Low-Light Image Enhancement [50.639332885989255]
低照度シーンにおける画像の強調は、コンピュータビジョンにおいて難しいが、広く懸念されている課題である。
主な障害は、異なるシーンにまたがる分散の相違によるモデリングの混乱にある。
上述の潜在対応をモデル化するための双レベルパラダイムを導入する。
エンコーダのシーン非関連な一般化を多様なシーンにもたらすために、双方向学習フレームワークを構築した。
論文 参考訳(メタデータ) (2023-06-02T08:16:21Z) - Unified Visual Relationship Detection with Vision and Language Models [89.77838890788638]
この研究は、複数のデータセットからラベル空間の結合を予測する単一の視覚的関係検出器のトレーニングに焦点を当てている。
視覚と言語モデルを活用した統合視覚関係検出のための新しいボトムアップ手法UniVRDを提案する。
人物体間相互作用検出とシーングラフ生成の双方による実験結果から,本モデルの競合性能が示された。
論文 参考訳(メタデータ) (2023-03-16T00:06:28Z) - Semi-Supervised Image Captioning by Adversarially Propagating Labeled
Data [95.0476489266988]
本稿では、画像キャプションモデルの一般化を改善するための、新しいデータ効率半教師付きフレームワークを提案する。
提案手法は,キャプタにペアデータから学習し,段階的に未ペアデータの関連付けを行うよう訓練する。
1)画像ベースと(2)高密度領域ベースキャプションデータセットの両方を総合的かつ包括的な実験結果とし,それに続いて,少ないペアリングデータセットの包括的分析を行った。
論文 参考訳(メタデータ) (2023-01-26T15:25:43Z) - The Met Dataset: Instance-level Recognition for Artworks [19.43143591288768]
この研究は、アートワークの領域における大規模インスタンスレベルの認識のためのデータセットを導入している。
私たちは、約224kクラスの大規模なトレーニングセットを形成するために、The Met博物館のオープンアクセスコレクションに依存しています。
論文 参考訳(メタデータ) (2022-02-03T18:13:30Z) - Learning Co-segmentation by Segment Swapping for Retrieval and Discovery [67.6609943904996]
この研究の目的は、一対のイメージから視覚的に類似したパターンを効率的に識別することである。
画像中のオブジェクトセグメントを選択し、それを別の画像にコピーペーストすることで、合成トレーニングペアを生成する。
提案手法は,Brueghelデータセット上でのアートワークの詳細検索に対して,明確な改善をもたらすことを示す。
論文 参考訳(メタデータ) (2021-10-29T16:51:16Z) - Towards Fine-grained Image Classification with Generative Adversarial
Networks and Facial Landmark Detection [0.0]
GANベースのデータ拡張を使用して、余分なデータセットインスタンスを生成します。
近年の視覚変換器 (ViT) モデルを用いて, きめ細かい画像分類の精度を評価し, 評価を行った。
論文 参考訳(メタデータ) (2021-08-28T06:32:42Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Unifying Remote Sensing Image Retrieval and Classification with Robust
Fine-tuning [3.6526118822907594]
新しい大規模トレーニングおよびテストデータセットであるSF300で、リモートセンシングイメージの検索と分類を統一することを目指しています。
本研究では,ImageNetの事前学習ベースラインと比較して,9つのデータセットの検索性能と分類性能を体系的に向上させることを示す。
論文 参考訳(メタデータ) (2021-02-26T11:01:30Z) - Gradient-Induced Co-Saliency Detection [81.54194063218216]
Co-SOD(Co-saliency Detection)は、一般的な唾液前景を関連画像のグループに分割することを目的としている。
本稿では,人間の行動にインスパイアされた,勾配誘導型共分散検出法を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:40:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。