論文の概要: Co-occurrence of deep convolutional features for image search
- arxiv url: http://arxiv.org/abs/2003.13827v2
- Date: Thu, 10 Jun 2021 16:47:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 07:27:15.693300
- Title: Co-occurrence of deep convolutional features for image search
- Title(参考訳): 画像検索のための深部畳み込み特徴の共起
- Authors: J.I.Forcen, Miguel Pagola, Edurne Barrenechea and Humberto Bustince
- Abstract要約: 画像検索は、事前訓練された畳み込みニューラルネットワーク(CNN)の深い特徴を用いて取り組むことができる
我々は、この最後の畳み込み層から付加的な関連情報を抽出するために、深層畳み込み特徴から共起物の新しい表現を提案する。
- 参考スコア(独自算出の注目度): 9.030769176986057
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Image search can be tackled using deep features from pre-trained
Convolutional Neural Networks (CNN). The feature map from the last
convolutional layer of a CNN encodes descriptive information from which a
discriminative global descriptor can be obtained. We propose a new
representation of co-occurrences from deep convolutional features to extract
additional relevant information from this last convolutional layer. Combining
this co-occurrence map with the feature map, we achieve an improved image
representation. We present two different methods to get the co-occurrence
representation, the first one based on direct aggregation of activations, and
the second one, based on a trainable co-occurrence representation. The image
descriptors derived from our methodology improve the performance in very
well-known image retrieval datasets as we prove in the experiments.
- Abstract(参考訳): 画像検索は、事前訓練された畳み込みニューラルネットワーク(CNN)の深い特徴を使って取り組むことができる。
CNNの最後の畳み込み層からの特徴マップは、識別可能なグローバル記述子を得ることができる記述情報を符号化する。
本稿では,この畳み込み層から追加の関連情報を抽出するために,深層畳み込み特徴からの共起の新たな表現を提案する。
この共起マップと特徴マップを組み合わせることで,画像表現の改善を実現する。
学習可能な共起表現に基づいて,アクティベーションの直接アグリゲーションに基づく第1と第2の2つの共起表現を得るための2つの異なる方法を提案する。
本手法から派生した画像記述子は,実験で証明したように,非常によく知られた画像検索データセットの性能を向上させる。
関連論文リスト
- Multilayer deep feature extraction for visual texture recognition [0.0]
本稿では,テクスチャ分類における畳み込みニューラルネットワークの精度向上に着目した。
事前訓練されたニューラルネットワークの複数の畳み込み層から特徴を抽出し、フィッシャーベクトルを用いてそのような特徴を集約する。
本手法は,ブラジルの植物種識別の実践的課題と同様に,ベンチマークデータセットのテクスチャ分類における有効性を検証する。
論文 参考訳(メタデータ) (2022-08-22T03:53:43Z) - Meta-Learning Sparse Compression Networks [44.30642520752235]
近年のDeep Learningの研究は、座標空間から基礎となる連続信号への写像としてのデータ表現を再定義している。
Inlicit Neural Representation (INRs) に関する最近の研究は、アーキテクチャ探索に注意を払って、INRが確立された圧縮手法より優れていることを示した。
論文 参考訳(メタデータ) (2022-05-18T14:31:43Z) - Learning Hierarchical Graph Representation for Image Manipulation
Detection [50.04902159383709]
画像操作検出の目的は、画像内の操作された領域を特定し、特定することである。
最近のアプローチでは、画像に残っている改ざんするアーティファクトをキャプチャするために、洗練された畳み込みニューラルネットワーク(CNN)が採用されている。
本稿では2つの並列分岐からなる階層型グラフ畳み込みネットワーク(HGCN-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-15T01:54:25Z) - Multi-Scale Feature Fusion: Learning Better Semantic Segmentation for
Road Pothole Detection [9.356003255288417]
本稿では,単一モーダルなセマンティックセグメンテーションに基づく新しいポットホール検出手法を提案する。
まず、畳み込みニューラルネットワークを用いて入力画像から視覚的特徴を抽出する。
チャネルアテンションモジュールは、異なるフィーチャーマップの一貫性を高めるために、チャネル機能を再考する。
論文 参考訳(メタデータ) (2021-12-24T15:07:47Z) - Contextual Similarity Aggregation with Self-attention for Visual
Re-ranking [96.55393026011811]
本稿では,自己注意を伴う文脈的類似性集約による視覚的再ランク付け手法を提案する。
提案手法の汎用性と有効性を示すため,4つのベンチマークデータセットの総合的な実験を行った。
論文 参考訳(メタデータ) (2021-10-26T06:20:31Z) - Summarize and Search: Learning Consensus-aware Dynamic Convolution for
Co-Saliency Detection [139.10628924049476]
人間は、まず、グループ全体のコンセンサス知識を要約し、その後、各画像内の対応するオブジェクトを検索することで、共相検出を行う。
以前の方法は、通常、最初のプロセスで堅牢性、スケーラビリティ、安定性を欠き、第2のプロセスでイメージ機能とコンセンサス機能を融合させる。
本稿では,新たなコンセンサスを考慮した動的畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-01T12:06:42Z) - DenserNet: Weakly Supervised Visual Localization Using Multi-scale
Feature Aggregation [7.2531609092488445]
画像表現の異なる意味レベルで特徴マップを集約する畳み込みニューラルネットワークアーキテクチャを開発する。
第二に、我々のモデルは、正および負のGPSタグ付き画像対以外の画素レベルのアノテーションなしで、エンドツーエンドで訓練されている。
第3に、アーキテクチャが計算中に特徴やパラメータを共有しているため、計算効率がよい。
論文 参考訳(メタデータ) (2020-12-04T02:16:47Z) - Adaptive Context-Aware Multi-Modal Network for Depth Completion [107.15344488719322]
我々は,観測された空間コンテキストを捉えるために,グラフ伝搬を採用することを提案する。
次に、注意機構を伝搬に適用し、ネットワークが文脈情報を適応的にモデル化することを奨励する。
最後に、抽出したマルチモーダル特徴を効果的に活用するための対称ゲート融合戦略を導入する。
本稿では,Adaptive Context-Aware Multi-Modal Network (ACMNet) を2つのベンチマークで評価した。
論文 参考訳(メタデータ) (2020-08-25T06:00:06Z) - Learning to Compose Hypercolumns for Visual Correspondence [57.93635236871264]
本稿では,画像に条件付けされた関連レイヤを活用することで,動的に効率的な特徴を構成する視覚対応手法を提案する。
提案手法はダイナミックハイパーピクセルフロー(Dynamic Hyperpixel Flow)と呼ばれ,深層畳み込みニューラルネットワークから少数の関連層を選択することにより,高速にハイパーカラム機能を構成することを学習する。
論文 参考訳(メタデータ) (2020-07-21T04:03:22Z) - A new approach to descriptors generation for image retrieval by
analyzing activations of deep neural network layers [43.77224853200986]
本稿では,ディープニューラルネットワークを用いたコンテンツベース画像検索作業における記述子構築の問題点について考察する。
ネットワークの畳み込み部分のニューロンの総数は多く、その大部分が最終分類決定にほとんど影響を与えないことが知られている。
本稿では,最も重要なニューロン活性化を抽出し,その情報を利用して効果的な記述子を構築する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:53:10Z) - Weakly-Supervised Semantic Segmentation by Iterative Affinity Learning [86.45526827323954]
弱教師付きセマンティックセグメンテーションは、トレーニングのためにピクセル単位のラベル情報が提供されないため、難しい課題である。
このようなペア関係を学習するための反復アルゴリズムを提案する。
本稿では,提案アルゴリズムが最先端手法に対して好適に動作することを示す。
論文 参考訳(メタデータ) (2020-02-19T10:32:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。