論文の概要: Deep Context-Aware Kernel Networks
- arxiv url: http://arxiv.org/abs/1912.12735v1
- Date: Sun, 29 Dec 2019 21:18:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 07:55:14.294512
- Title: Deep Context-Aware Kernel Networks
- Title(参考訳): 深層環境を考慮したカーネルネットワーク
- Authors: Mingyuan Jiu and Hichem Sahbi
- Abstract要約: 本稿では,カーネル設計におけるコンテキストを学習する新しいディープネットワークアーキテクチャを提案する。
実験の結果, 深層文脈ネットワークは画像分類に極めて有効であり, 学習コンテキストは画像アノテーションの性能をさらに向上させることがわかった。
- 参考スコア(独自算出の注目度): 15.99072005190786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Context plays a crucial role in visual recognition as it provides
complementary clues for different learning tasks including image classification
and annotation. As the performances of these tasks are currently reaching a
plateau, any extra knowledge, including context, should be leveraged in order
to seek significant leaps in these performances. In the particular scenario of
kernel machines, context-aware kernel design aims at learning positive
semi-definite similarity functions which return high values not only when data
share similar contents, but also similar structures (a.k.a contexts). However,
the use of context in kernel design has not been fully explored; indeed,
context in these solutions is handcrafted instead of being learned. In this
paper, we introduce a novel deep network architecture that learns context in
kernel design. This architecture is fully determined by the solution of an
objective function mixing a content term that captures the intrinsic similarity
between data, a context criterion which models their structure and a
regularization term that helps designing smooth kernel network representations.
The solution of this objective function defines a particular deep network
architecture whose parameters correspond to different variants of learned
contexts including layerwise, stationary and classwise; larger values of these
parameters correspond to the most influencing contextual relationships between
data. Extensive experiments conducted on the challenging ImageCLEF Photo
Annotation and Corel5k benchmarks show that our deep context networks are
highly effective for image classification and the learned contexts further
enhance the performance of image annotation.
- Abstract(参考訳): コンテキストは、画像分類やアノテーションを含むさまざまな学習タスクの補完的な手がかりを提供するため、視覚認識において重要な役割を果たす。
これらのタスクのパフォーマンスは現在高水準に達しているため、これらのパフォーマンスに大きな飛躍を求めるために、コンテキストを含む余分な知識を活用すべきである。
カーネルマシンの特定のシナリオにおいて、コンテキスト対応カーネル設計は、データが類似したコンテンツを共有する場合だけでなく、類似した構造(コンテキスト)も高い値を返す正の半定類似性関数を学習することを目的としている。
しかし、カーネル設計におけるコンテキストの使用は十分に検討されておらず、実際、これらのソリューションのコンテキストは学習されるのではなく、手作りである。
本稿では,カーネル設計におけるコンテキストを学習する新しいディープネットワークアーキテクチャを提案する。
このアーキテクチャは、データ間の内在的な類似性をキャプチャするコンテンツ項と、その構造をモデル化するコンテキスト基準と、スムーズなカーネルネットワーク表現を設計するのに役立つ正規化項とを混合する客観的関数の解によって完全に決定される。
この目的関数の解は、パラメータが階層的、定常的、およびクラス的に学習された文脈の異なる変種に対応する特定のディープネットワークアーキテクチャを定義し、これらのパラメータのより大きな値は、データ間の最も影響のあるコンテキスト関係に対応する。
ImageCLEF Photo Annotation と Corel5k ベンチマークで実施された大規模な実験により、深層文脈ネットワークは画像分類に非常に有効であり、学習コンテキストは画像アノテーションの性能をさらに向上させることが示された。
関連論文リスト
- A Simple Image Segmentation Framework via In-Context Examples [59.319920526160466]
本稿では,テキスト内例を利用したシンプルな画像フレームワークであるSINEを提案する。
In-context Interactionモジュールを導入し、インコンテキスト情報を補完し、ターゲット画像とインコンテキストの例との相関関係を生成する。
様々なセグメンテーションタスクの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-10-07T08:59:05Z) - Image as Set of Points [60.30495338399321]
コンテキストクラスタ(CoC)は、イメージを非組織的なポイントの集合と見なし、単純化されたクラスタリングアルゴリズムによって特徴を抽出する。
われわれのCoCは畳み込みと無注意で、空間的相互作用のためのクラスタリングアルゴリズムにのみ依存している。
論文 参考訳(メタデータ) (2023-03-02T18:56:39Z) - TopicFM: Robust and Interpretable Feature Matching with Topic-assisted [8.314830611853168]
本稿では,効率,堅牢,解釈可能な画像マッチングアーキテクチャを提案する。
TopicFMと呼ばれる新しい特徴マッチングモジュールを導入し、画像間で同じ空間構造をトピックに大まかに整理する。
提案手法は,計算量を削減するために,共可視領域でのみマッチングを行うことができる。
論文 参考訳(メタデータ) (2022-07-01T10:39:14Z) - Self-Supervised Visual Representation Learning with Semantic Grouping [50.14703605659837]
我々は、未ラベルのシーン中心のデータから視覚表現を学習する問題に取り組む。
本研究では,データ駆動型セマンティックスロット,すなわちSlotConによる協調型セマンティックグルーピングと表現学習のためのコントラスト学習を提案する。
論文 参考訳(メタデータ) (2022-05-30T17:50:59Z) - Context-based Deep Learning Architecture with Optimal Integration Layer
for Image Parsing [0.0]
提案した3層コンテキストベースディープアーキテクチャは、コンテキストを視覚情報と明示的に統合することができる。
ベンチマークデータセットで評価した場合の実験結果は有望である。
論文 参考訳(メタデータ) (2022-04-13T07:35:39Z) - Exploring Set Similarity for Dense Self-supervised Representation
Learning [96.35286140203407]
本研究では,高密度自己教師型表現学習のためのtextbfset textbfsimilarity (SetSim) を提案する。
ピクセルワイドの類似性学習をセットワイドに一般化し,よりセマンティックな情報や構造的な情報を含むため,ロバスト性を向上させる。
具体的には、ビューの注意的特徴に頼って対応する集合を定め、不適切な対応を引き起こす可能性のあるノイズの多い背景をフィルタリングする。
論文 参考訳(メタデータ) (2021-07-19T09:38:27Z) - Exploring Cross-Image Pixel Contrast for Semantic Segmentation [130.22216825377618]
完全教師付きセッティングにおけるセマンティックセグメンテーションのための画素単位のコントラストフレームワークを提案する。
中心となる考え方は、同じセマンティッククラスに属するピクセルの埋め込みを、異なるクラスの埋め込みよりもよく似ているように強制することである。
テスト中に余分なオーバーヘッドを伴わずに既存のセグメンテーションフレームワークに懸命に組み込むことができる。
論文 参考訳(メタデータ) (2021-01-28T11:35:32Z) - Image Annotation based on Deep Hierarchical Context Networks [17.665938343060112]
DHCN(Deep Hierarchical Context Network)を紹介する。
提案手法は、忠実性項と文脈基準と正規化子を混合する目的関数の最小化に基づいている。
この表現学習の問題を、パラメータが最も影響するバイレベルなコンテキスト関係に対応する深いネットワークをトレーニングすることで解決します。
論文 参考訳(メタデータ) (2020-12-21T11:07:42Z) - Contextual Interference Reduction by Selective Fine-Tuning of Neural
Networks [1.0152838128195465]
本研究では,不整合前景対象オブジェクト表現の干渉におけるコンテキストの役割について検討する。
私たちはボトムアップとトップダウンの処理パラダイムの恩恵を受けるフレームワークに取り組んでいます。
論文 参考訳(メタデータ) (2020-11-21T20:11:12Z) - Learning to Compose Hypercolumns for Visual Correspondence [57.93635236871264]
本稿では,画像に条件付けされた関連レイヤを活用することで,動的に効率的な特徴を構成する視覚対応手法を提案する。
提案手法はダイナミックハイパーピクセルフロー(Dynamic Hyperpixel Flow)と呼ばれ,深層畳み込みニューラルネットワークから少数の関連層を選択することにより,高速にハイパーカラム機能を構成することを学習する。
論文 参考訳(メタデータ) (2020-07-21T04:03:22Z) - Group Based Deep Shared Feature Learning for Fine-grained Image
Classification [31.84610555517329]
共有された特徴を明示的にモデル化し、その効果を除去し、拡張された分類結果を得るための新しいディープネットワークアーキテクチャを提案する。
我々はこのフレームワークをグループベースのDeep Shared Feature Learning (GSFL)と呼び、学習したネットワークをGSFL-Netと呼ぶ。
特殊オートエンコーダの重要な利点は、多用途であり、最先端のきめ細かい特徴抽出モデルと組み合わせて、それらと一緒にトレーニングすることで、パフォーマンスを直接改善できる点である。
論文 参考訳(メタデータ) (2020-04-04T00:01:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。