論文の概要: Semantic-embedded Similarity Prototype for Scene Recognition
- arxiv url: http://arxiv.org/abs/2308.05896v3
- Date: Mon, 20 May 2024 01:59:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-22 00:40:21.337538
- Title: Semantic-embedded Similarity Prototype for Scene Recognition
- Title(参考訳): シーン認識のための意味埋め込み型類似性プロトタイプ
- Authors: Chuanxin Song, Hanbo Wu, Xin Ma, Yibin Li,
- Abstract要約: 本稿では,意味的知識に基づく類似性プロトタイプを提案する。
これにより、実際の計算コストを増大させることなく、シーン認識ネットワークの精度を向上させることができる。
我々の類似性プロトタイプは、既存のネットワークの性能を向上するとともに、実際の展開における計算負荷の増大を回避します。
- 参考スコア(独自算出の注目度): 12.236534954126155
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the high inter-class similarity caused by the complex composition and the co-existing objects across scenes, numerous studies have explored object semantic knowledge within scenes to improve scene recognition. However, a resulting challenge emerges as object information extraction techniques require heavy computational costs, thereby burdening the network considerably. This limitation often renders object-assisted approaches incompatible with edge devices in practical deployment. In contrast, this paper proposes a semantic knowledge-based similarity prototype, which can help the scene recognition network achieve superior accuracy without increasing the computational cost in practice. It is simple and can be plug-and-played into existing pipelines. More specifically, a statistical strategy is introduced to depict semantic knowledge in scenes as class-level semantic representations. These representations are used to explore correlations between scene classes, ultimately constructing a similarity prototype. Furthermore, we propose to leverage the similarity prototype to support network training from the perspective of Gradient Label Softening and Batch-level Contrastive Loss, respectively. Comprehensive evaluations on multiple benchmarks show that our similarity prototype enhances the performance of existing networks, all while avoiding any additional computational burden in practical deployments. Code and the statistical similarity prototype will be available at https://github.com/ChuanxinSong/SimilarityPrototype
- Abstract(参考訳): 複雑な構成によって生じるクラス間類似度の高さと、シーン間の共存オブジェクトにより、多くの研究がシーン認識を改善するためにシーン内のオブジェクトの意味知識を探索してきた。
しかし、オブジェクト情報抽出技術では計算コストが重いため、ネットワークの負担が大きくなるため、結果として課題が生じる。
この制限は、実際のデプロイにおいて、エッジデバイスと互換性のないオブジェクトアシストアプローチをしばしば引き起こす。
対照的に,本研究では,シーン認識ネットワークが実際の計算コストを増大させることなく,より優れた精度を実現するための,意味的知識に基づく類似性プロトタイプを提案する。
シンプルで、既存のパイプラインにプラグイン&プレイできる。
より具体的には、シーンのセマンティックな知識をクラスレベルのセマンティックな表現として表現するための統計戦略が導入された。
これらの表現はシーンクラス間の相関を探索するために使用され、最終的には類似したプロトタイプを構築する。
さらに,この類似性を生かして,グラディエントラベルソフトニングとバッチレベルのコントラストロスの観点から,ネットワークトレーニングを支援することを提案する。
複数のベンチマークの総合的な評価は、我々の類似性プロトタイプが既存のネットワークの性能を向上させる一方で、実際の展開において計算負荷を余分に回避していることを示している。
コードと統計的類似性プロトタイプはhttps://github.com/ChuanxinSong/SimilarityPrototypeで公開される。
関連論文リスト
- Hunting Attributes: Context Prototype-Aware Learning for Weakly
Supervised Semantic Segmentation [22.591512454923883]
我々は、インスタンスとコンテキスト間の知識バイアスが、インスタンスのセマンティクスを十分に理解するプロトタイプの能力に影響を与えると主張している。
プロトタイプ学習理論に触発された本研究では,インスタンスの多種多様かつきめ細かな特徴を捉えるために,プロトタイプ認識を活用することを提案する。
本稿では,コンテキスト型認識学習(CPAL:Context Prototype-Aware Learning)戦略を提案する。
論文 参考訳(メタデータ) (2024-03-12T13:11:58Z) - Adaptive Prototypical Networks [2.964978357715084]
ファウショット学習のためのプロトタイプネットワークは、エンコーダに埋め込み関数を学習し、類似した特徴を持つ画像を互いに近接して埋め込む。
メタテストフェーズにおいて,各クラスの埋め込みを他のクラスから直感的に切り離すアプローチを提案する。
これは、新しいタスクのサポートセットのサンプルとラベルを使用して、分類のためのエンコーダネットワークをトレーニングすることで達成される。
論文 参考訳(メタデータ) (2022-11-22T18:45:58Z) - Self-Supervised Visual Representation Learning with Semantic Grouping [50.14703605659837]
我々は、未ラベルのシーン中心のデータから視覚表現を学習する問題に取り組む。
本研究では,データ駆動型セマンティックスロット,すなわちSlotConによる協調型セマンティックグルーピングと表現学習のためのコントラスト学習を提案する。
論文 参考訳(メタデータ) (2022-05-30T17:50:59Z) - Semantic Representation and Dependency Learning for Multi-Label Image
Recognition [76.52120002993728]
本稿では,各カテゴリのカテゴリ固有のセマンティック表現を学習するための,新しい,効果的なセマンティック表現と依存性学習(SRDL)フレームワークを提案する。
具体的には,カテゴリー別注意領域(CAR)モジュールを設計し,チャネル/空間的注意行列を生成してモデルを導出する。
また、カテゴリ間のセマンティック依存を暗黙的に学習するオブジェクト消去(OE)モジュールを設計し、セマンティック認識領域を消去する。
論文 参考訳(メタデータ) (2022-04-08T00:55:15Z) - Dense Semantic Contrast for Self-Supervised Visual Representation
Learning [12.636783522731392]
意味圏決定境界を密度の高いレベルでモデル化するためのDense Semantic Contrast(DSC)を提案する。
本稿では,多粒度表現学習のためのクロスイメージ・セマンティック・コントラッシブ・ラーニング・フレームワークを提案する。
実験結果から,DSCモデルは下流の高密度予測タスクに転送する場合に,最先端の手法よりも優れることがわかった。
論文 参考訳(メタデータ) (2021-09-16T07:04:05Z) - Prototypical Representation Learning for Relation Extraction [56.501332067073065]
本論文では, 遠隔ラベルデータから予測可能, 解釈可能, 堅牢な関係表現を学習することを目的とする。
文脈情報から各関係のプロトタイプを学習し,関係の本質的意味を最善に探求する。
いくつかの関係学習タスクの結果,本モデルが従来の関係モデルを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-03-22T08:11:43Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z) - Dynamic Semantic Matching and Aggregation Network for Few-shot Intent
Detection [69.2370349274216]
利用可能な注釈付き発話が不足しているため、インテント検出は困難である。
セマンティック成分はマルチヘッド自己認識によって発話から蒸留される。
本手法はラベル付きインスタンスとラベルなしインスタンスの両方の表現を強化するための総合的なマッチング手段を提供する。
論文 参考訳(メタデータ) (2020-10-06T05:16:38Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z) - Contextual Encoder-Decoder Network for Visual Saliency Prediction [42.047816176307066]
本稿では,大規模な画像分類タスクに基づいて事前学習した畳み込みニューラルネットワークに基づくアプローチを提案する。
得られた表現をグローバルなシーン情報と組み合わせて視覚的サリエンシを正確に予測する。
最先端技術と比較して、このネットワークは軽量な画像分類バックボーンに基づいている。
論文 参考訳(メタデータ) (2019-02-18T16:15:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。