論文の概要: An End-to-End Network for Co-Saliency Detection in One Single Image
- arxiv url: http://arxiv.org/abs/1910.11819v2
- Date: Wed, 15 Feb 2023 15:17:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-25 04:12:45.260986
- Title: An End-to-End Network for Co-Saliency Detection in One Single Image
- Title(参考訳): 単一画像における共分散検出のためのエンドツーエンドネットワーク
- Authors: Yuanhao Yue, Qin Zou, Hongkai Yu, Qian Wang, Zhongyuan Wang and Song
Wang
- Abstract要約: 単一の画像内の共分散検出は、まだ十分に対処されていない一般的な視覚問題である。
本研究では、バックボーンネットと2つの分岐ネットからなる新しいエンドツーエンドのトレーニングネットワークを提案する。
本研究では,2,019個の自然画像のデータセットを各画像に共分散して構築し,提案手法の評価を行う。
- 参考スコア(独自算出の注目度): 47.35448093528382
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Co-saliency detection within a single image is a common vision problem that
has received little attention and has not yet been well addressed. Existing
methods often used a bottom-up strategy to infer co-saliency in an image in
which salient regions are firstly detected using visual primitives such as
color and shape and then grouped and merged into a co-saliency map. However,
co-saliency is intrinsically perceived complexly with bottom-up and top-down
strategies combined in human vision. To address this problem, this study
proposes a novel end-to-end trainable network comprising a backbone net and two
branch nets. The backbone net uses ground-truth masks as top-down guidance for
saliency prediction, whereas the two branch nets construct triplet proposals
for regional feature mapping and clustering, which drives the network to be
bottom-up sensitive to co-salient regions. We construct a new dataset of 2,019
natural images with co-saliency in each image to evaluate the proposed method.
Experimental results show that the proposed method achieves state-of-the-art
accuracy with a running speed of 28 fps.
- Abstract(参考訳): 単一の画像内の共サリエンシー検出は、ほとんど注意を払われず、まだ十分に対処されていない共通のビジョン問題である。
既存の手法ではボトムアップ戦略を用いて、色や形状などの視覚的プリミティブをまず検出し、グループ化してコ・サリエンシマップにマージした画像において、コ・サリエンシを推定する。
しかし、人間の視覚ではボトムアップ戦略とトップダウン戦略が組み合わさって、本質的には共給性は複雑に知覚される。
そこで本研究では,バックボーンネットと2つの分岐ネットからなるエンドツーエンドのトレーニングネットワークを提案する。
バックボーンネットは,サリエンシ予測のためのトップダウンガイダンスとしてグラウンドトルースマスクを用いており,一方2つのブランチネットは,地域特徴マッピングとクラスタリングのためのトリプルト提案を構築しており,ネットワークはコサリアント領域に敏感なボトムアップとなる。
提案手法を評価するために,各画像に共存する2,019個の自然画像のデータセットを構築した。
実験の結果,28fpsの動作速度で最先端の精度が得られることがわかった。
関連論文リスト
- Dense Siamese Network [86.23741104851383]
本稿では,Dense Siamese Network(DenseSiam)を提案する。
画像の2つのビュー間の類似性を最大化し、ピクセルの一貫性と領域の一貫性という2種類の一貫性を学習する。
最先端のセグメンテーション手法を2.1 mIoUで28%のトレーニングコストで上回っている。
論文 参考訳(メタデータ) (2022-03-21T15:55:23Z) - Sharp-GAN: Sharpness Loss Regularized GAN for Histopathology Image
Synthesis [65.47507533905188]
コンディショナル・ジェネレーショナル・ジェネレーティブ・逆境ネットワークは、合成病理像を生成するために応用されている。
そこで我々は,現実的な病理像を合成するために,シャープネスロス正則化生成対向ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T18:54:25Z) - ADMM-DAD net: a deep unfolding network for analysis compressed sensing [20.88999913266683]
圧縮センシング解析のためのADMMアルゴリズムに基づく新しい深部展開ニューラルネットワークを提案する。
提案するネットワークは、スパーシフィケーションのための冗長解析演算子を共同で学習し、関心のシグナルを再構成する。
論文 参考訳(メタデータ) (2021-10-13T18:56:59Z) - SOSD-Net: Joint Semantic Object Segmentation and Depth Estimation from
Monocular images [94.36401543589523]
これら2つのタスクの幾何学的関係を利用するための意味的対象性の概念を紹介します。
次に, 対象性仮定に基づくセマンティックオブジェクト・深さ推定ネットワーク(SOSD-Net)を提案する。
私たちの知識を最大限に活用するために、SOSD-Netは同時単眼深度推定とセマンティックセグメンテーションのためのジオメトリ制約を利用する最初のネットワークです。
論文 参考訳(メタデータ) (2021-01-19T02:41:03Z) - A Lightweight Neural Network for Monocular View Generation with
Occlusion Handling [46.74874316127603]
1枚の画像からビュー合成を行うステレオデータペアに基づいて訓練された,非常に軽量なニューラルネットワークアーキテクチャを提案する。
この作業は、挑戦的なKITTIデータセットにおいて、視覚的および計量的に最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2020-07-24T15:29:01Z) - SharinGAN: Combining Synthetic and Real Data for Unsupervised Geometry
Estimation [18.29202999419042]
本稿では,学習ネットワークにおける合成画像と実画像を組み合わせる新しい手法を提案する。
両画像の型を1つの共有ドメインにマッピングする方法を提案する。
本実験は,2つの重要な領域における最先端技術に対する顕著な改善を実証した。
論文 参考訳(メタデータ) (2020-06-07T02:45:33Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z) - Gradient-Induced Co-Saliency Detection [81.54194063218216]
Co-SOD(Co-saliency Detection)は、一般的な唾液前景を関連画像のグループに分割することを目的としている。
本稿では,人間の行動にインスパイアされた,勾配誘導型共分散検出法を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:40:55Z) - A Two-Stream Symmetric Network with Bidirectional Ensemble for Aerial
Image Matching [24.089374888914143]
本研究では,2ストリームの深層ネットワークを用いて異なる環境下で得られた2つの空中画像を正確にマッチングする手法を提案する。
ネットワークは、対象画像を内部的に増強することにより、3つの入力画像で2ストリームを考慮し、トレーニングにおける追加の強化ペアを反映する。
論文 参考訳(メタデータ) (2020-02-04T14:38:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。