論文の概要: Semantic-embedded Similarity Prototype for Scene Recognition
- arxiv url: http://arxiv.org/abs/2308.05896v2
- Date: Fri, 20 Oct 2023 01:40:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 03:13:08.972675
- Title: Semantic-embedded Similarity Prototype for Scene Recognition
- Title(参考訳): シーン認識のためのsemantic-embedded similarity prototype
- Authors: Chuanxin Song, Hanbo Wu, Xin Ma, Yibin Li
- Abstract要約: 本稿では,意味的知識に基づく類似性プロトタイプを提案する。
これにより、実際の計算コストを増大させることなく、シーン認識ネットワークの精度を向上させることができる。
コードと統計的類似性のプロトタイプが近く公開される。
- 参考スコア(独自算出の注目度): 13.367535370705395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the high inter-class similarity caused by the complex composition and
the co-existing objects across scenes, numerous studies have explored object
semantic knowledge within scenes to improve scene recognition. However, a
resulting challenge emerges as object information extraction techniques require
heavy computational costs, thereby burdening the network considerably. This
limitation often renders object-assisted approaches incompatible with edge
devices in practical deployment. In contrast, this paper proposes a semantic
knowledge-based similarity prototype, which can help the scene recognition
network achieve superior accuracy without increasing the computational cost in
practice. It is simple and can be plug-and-played into existing pipelines. More
specifically, a statistical strategy is introduced to depict semantic knowledge
in scenes as class-level semantic representations. These representations are
used to explore correlations between scene classes, ultimately constructing a
similarity prototype. Furthermore, we propose to leverage the similarity
prototype to support network training from the perspective of Gradient Label
Softening and Batch-level Contrastive Loss, respectively. Comprehensive
evaluations on multiple benchmarks show that our similarity prototype enhances
the performance of existing networks, all while avoiding any additional
computational burden in practical deployments. Code and the statistical
similarity prototype will be available soon.
- Abstract(参考訳): 複雑な構成によって生じるクラス間類似度の高さと、シーン間の共存オブジェクトにより、多くの研究がシーン認識を改善するためにシーン内のオブジェクトの意味知識を探索してきた。
しかし、オブジェクト情報抽出技術では計算コストが重いため、ネットワークの負担が大きくなるため、結果として課題が生じる。
この制限は、実際のデプロイにおいて、エッジデバイスと互換性のないオブジェクトアシストアプローチをしばしば引き起こす。
そこで,本稿では,実際の計算コストを増加させることなく,シーン認識ネットワークが優れた精度を実現するための意味知識に基づく類似性プロトタイプを提案する。
シンプルで、既存のパイプラインにプラグイン&プレイできる。
より具体的には、シーンのセマンティックな知識をクラスレベルのセマンティックな表現として表現するための統計戦略が導入された。
これらの表現はシーンクラス間の相関を探索するために使われ、最終的に類似性のプロトタイプを構築する。
さらに,グラデーションラベルソフトニングとバッチレベルのコントラスト損失の観点から,ネットワークトレーニングを支援するために類似度プロトタイプを活用することを提案する。
複数のベンチマークにおける包括的評価は、我々の類似性プロトタイプが既存のネットワークの性能を高めていることを示している。
コードと統計的類似性のプロトタイプが近く公開される。
関連論文リスト
- Hunting Attributes: Context Prototype-Aware Learning for Weakly
Supervised Semantic Segmentation [22.591512454923883]
我々は、インスタンスとコンテキスト間の知識バイアスが、インスタンスのセマンティクスを十分に理解するプロトタイプの能力に影響を与えると主張している。
プロトタイプ学習理論に触発された本研究では,インスタンスの多種多様かつきめ細かな特徴を捉えるために,プロトタイプ認識を活用することを提案する。
本稿では,コンテキスト型認識学習(CPAL:Context Prototype-Aware Learning)戦略を提案する。
論文 参考訳(メタデータ) (2024-03-12T13:11:58Z) - Adaptive Prototypical Networks [2.964978357715084]
ファウショット学習のためのプロトタイプネットワークは、エンコーダに埋め込み関数を学習し、類似した特徴を持つ画像を互いに近接して埋め込む。
メタテストフェーズにおいて,各クラスの埋め込みを他のクラスから直感的に切り離すアプローチを提案する。
これは、新しいタスクのサポートセットのサンプルとラベルを使用して、分類のためのエンコーダネットワークをトレーニングすることで達成される。
論文 参考訳(メタデータ) (2022-11-22T18:45:58Z) - Self-Supervised Visual Representation Learning with Semantic Grouping [50.14703605659837]
我々は、未ラベルのシーン中心のデータから視覚表現を学習する問題に取り組む。
本研究では,データ駆動型セマンティックスロット,すなわちSlotConによる協調型セマンティックグルーピングと表現学習のためのコントラスト学習を提案する。
論文 参考訳(メタデータ) (2022-05-30T17:50:59Z) - Semantic Representation and Dependency Learning for Multi-Label Image
Recognition [76.52120002993728]
本稿では,各カテゴリのカテゴリ固有のセマンティック表現を学習するための,新しい,効果的なセマンティック表現と依存性学習(SRDL)フレームワークを提案する。
具体的には,カテゴリー別注意領域(CAR)モジュールを設計し,チャネル/空間的注意行列を生成してモデルを導出する。
また、カテゴリ間のセマンティック依存を暗黙的に学習するオブジェクト消去(OE)モジュールを設計し、セマンティック認識領域を消去する。
論文 参考訳(メタデータ) (2022-04-08T00:55:15Z) - Dense Semantic Contrast for Self-Supervised Visual Representation
Learning [12.636783522731392]
意味圏決定境界を密度の高いレベルでモデル化するためのDense Semantic Contrast(DSC)を提案する。
本稿では,多粒度表現学習のためのクロスイメージ・セマンティック・コントラッシブ・ラーニング・フレームワークを提案する。
実験結果から,DSCモデルは下流の高密度予測タスクに転送する場合に,最先端の手法よりも優れることがわかった。
論文 参考訳(メタデータ) (2021-09-16T07:04:05Z) - Prototypical Representation Learning for Relation Extraction [56.501332067073065]
本論文では, 遠隔ラベルデータから予測可能, 解釈可能, 堅牢な関係表現を学習することを目的とする。
文脈情報から各関係のプロトタイプを学習し,関係の本質的意味を最善に探求する。
いくつかの関係学習タスクの結果,本モデルが従来の関係モデルを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-03-22T08:11:43Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z) - Dynamic Semantic Matching and Aggregation Network for Few-shot Intent
Detection [69.2370349274216]
利用可能な注釈付き発話が不足しているため、インテント検出は困難である。
セマンティック成分はマルチヘッド自己認識によって発話から蒸留される。
本手法はラベル付きインスタンスとラベルなしインスタンスの両方の表現を強化するための総合的なマッチング手段を提供する。
論文 参考訳(メタデータ) (2020-10-06T05:16:38Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z) - Contextual Encoder-Decoder Network for Visual Saliency Prediction [42.047816176307066]
本稿では,大規模な画像分類タスクに基づいて事前学習した畳み込みニューラルネットワークに基づくアプローチを提案する。
得られた表現をグローバルなシーン情報と組み合わせて視覚的サリエンシを正確に予測する。
最先端技術と比較して、このネットワークは軽量な画像分類バックボーンに基づいている。
論文 参考訳(メタデータ) (2019-02-18T16:15:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。