論文の概要: Summarize and Search: Learning Consensus-aware Dynamic Convolution for
Co-Saliency Detection
- arxiv url: http://arxiv.org/abs/2110.00338v1
- Date: Fri, 1 Oct 2021 12:06:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-04 14:34:46.488585
- Title: Summarize and Search: Learning Consensus-aware Dynamic Convolution for
Co-Saliency Detection
- Title(参考訳): 要約と検索:学習コンセンサス対応動的畳み込みによる共給検出
- Authors: Ni Zhang and Junwei Han and Nian Liu and Ling Shao
- Abstract要約: 人間は、まず、グループ全体のコンセンサス知識を要約し、その後、各画像内の対応するオブジェクトを検索することで、共相検出を行う。
以前の方法は、通常、最初のプロセスで堅牢性、スケーラビリティ、安定性を欠き、第2のプロセスでイメージ機能とコンセンサス機能を融合させる。
本稿では,新たなコンセンサスを考慮した動的畳み込みモデルを提案する。
- 参考スコア(独自算出の注目度): 139.10628924049476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans perform co-saliency detection by first summarizing the consensus
knowledge in the whole group and then searching corresponding objects in each
image. Previous methods usually lack robustness, scalability, or stability for
the first process and simply fuse consensus features with image features for
the second process. In this paper, we propose a novel consensus-aware dynamic
convolution model to explicitly and effectively perform the "summarize and
search" process. To summarize consensus image features, we first summarize
robust features for every single image using an effective pooling method and
then aggregate cross-image consensus cues via the self-attention mechanism. By
doing this, our model meets the scalability and stability requirements. Next,
we generate dynamic kernels from consensus features to encode the summarized
consensus knowledge. Two kinds of kernels are generated in a supplementary way
to summarize fine-grained image-specific consensus object cues and the coarse
group-wise common knowledge, respectively. Then, we can effectively perform
object searching by employing dynamic convolution at multiple scales. Besides,
a novel and effective data synthesis method is also proposed to train our
network. Experimental results on four benchmark datasets verify the
effectiveness of our proposed method. Our code and saliency maps are available
at \url{https://github.com/nnizhang/CADC}.
- Abstract(参考訳): 人間は、まずグループ全体のコンセンサス知識を要約し、次に各画像中の対応するオブジェクトを検索することによって、協力的検出を行う。
以前の方法は、通常、最初のプロセスで堅牢性、スケーラビリティ、安定性を欠き、第2プロセスでイメージ機能とコンセンサス機能を融合させる。
本稿では,新たなコンセンサスを考慮した動的畳み込みモデルを提案する。
コンセンサス画像の特徴を要約するために,まず効果的なプーリング法を用いて各画像のロバストな特徴を要約し,自己認識機構を介して画像間のコンセンサスを集約する。
これを行うことで、我々のモデルはスケーラビリティと安定性の要件を満たす。
次に,コンセンサス機能から動的カーネルを生成し,要約されたコンセンサス知識を符号化する。
微粒な画像特異的コンセンサスオブジェクトキューと粗いグループワイド共通知識を要約する補助的な方法で2種類のカーネルを生成する。
そして,複数のスケールで動的畳み込みを用いてオブジェクト探索を効果的に行う。
また,ネットワークを学習するための新しい効果的なデータ合成手法も提案している。
4つのベンチマークデータセットにおける実験結果から,提案手法の有効性を検証した。
コードとサリエンシマップは \url{https://github.com/nnizhang/CADC} で公開されています。
関連論文リスト
- NubbleDrop: A Simple Way to Improve Matching Strategy for Prompted One-Shot Segmentation [2.2559617939136505]
マッチング戦略の有効性とロバスト性を高めるための,単純で訓練のない手法を提案する。
中心となる概念は、マッチングプロセス中にランダムに特徴チャネル(0に設定する)をドロップすることである。
この手法は、病理的なヌブルの破棄を模倣し、他の類似性コンピューティングのシナリオにシームレスに適用することができる。
論文 参考訳(メタデータ) (2024-05-19T08:00:38Z) - Towards Consistent Object Detection via LiDAR-Camera Synergy [17.665362927472973]
物体の位置を点雲と画像の両方で検出できる既存のモデルは存在しない。
本稿では,エンドツーエンドの一貫性オブジェクト検出(COD)アルゴリズムフレームワークを提案する。
本稿では,点雲と画像間の物体相関の精度を評価するために,新しい評価指標である一貫性精度(Consistency Precision)を提案する。
論文 参考訳(メタデータ) (2024-05-02T13:04:26Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - Contextual Similarity Aggregation with Self-attention for Visual
Re-ranking [96.55393026011811]
本稿では,自己注意を伴う文脈的類似性集約による視覚的再ランク付け手法を提案する。
提案手法の汎用性と有効性を示すため,4つのベンチマークデータセットの総合的な実験を行った。
論文 参考訳(メタデータ) (2021-10-26T06:20:31Z) - Learning Contrastive Representation for Semantic Correspondence [150.29135856909477]
セマンティックマッチングのためのマルチレベルコントラスト学習手法を提案する。
画像レベルのコントラスト学習は、畳み込み特徴が類似したオブジェクト間の対応を見出すための鍵となる要素であることを示す。
論文 参考訳(メタデータ) (2021-09-22T18:34:14Z) - Instance and Pair-Aware Dynamic Networks for Re-Identification [16.32740680438257]
Re-identification (ReID) は、異なるカメラで同じインスタンスを識別することです。
インスタンスとペアアウェア動的ネットワークという,新しいエンドツーエンドのトレーニング可能な動的畳み込みフレームワークを提案する。
いくつかのデータセットでは、我々のアルゴリズムは最先端の手法よりも優れており、また、我々のアルゴリズムは同等のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-03-09T12:34:41Z) - CoADNet: Collaborative Aggregation-and-Distribution Networks for
Co-Salient Object Detection [91.91911418421086]
Co-Salient Object Detection (CoSOD)は、2つ以上の関連する画像を含む所定のクエリグループに繰り返し現れる健全なオブジェクトを発見することを目的としている。
課題の1つは、画像間の関係をモデリングし、活用することによって、コ・サリヤ・キューを効果的にキャプチャする方法である。
我々は,複数画像から有能かつ反復的な視覚パターンを捉えるために,エンドツーエンドの協調集約配信ネットワーク(CoADNet)を提案する。
論文 参考訳(メタデータ) (2020-11-10T04:28:11Z) - Two-Level Adversarial Visual-Semantic Coupling for Generalized Zero-shot
Learning [21.89909688056478]
トレーニング中に推論ネットワークを用いて生成ネットワークを増強する2段階のジョイントアイデアを提案する。
これにより、ビジュアルドメインとセマンティックドメイン間の効果的な知識伝達のための強力な相互モーダル相互作用が提供される。
提案手法は,4つのベンチマークデータセットに対して,いくつかの最先端手法に対して評価し,その性能を示す。
論文 参考訳(メタデータ) (2020-07-15T15:34:09Z) - Image Matching across Wide Baselines: From Paper to Practice [80.9424750998559]
局所的な特徴とロバストな推定アルゴリズムの包括的なベンチマークを導入する。
パイプラインのモジュール構造は、さまざまなメソッドの容易な統合、構成、組み合わせを可能にします。
適切な設定で、古典的な解決策は依然として芸術の知覚された状態を上回る可能性があることを示す。
論文 参考訳(メタデータ) (2020-03-03T15:20:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。