論文の概要: Semantic-embedded Similarity Prototype for Scene Recognition
- arxiv url: http://arxiv.org/abs/2308.05896v1
- Date: Fri, 11 Aug 2023 01:11:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 15:13:12.147703
- Title: Semantic-embedded Similarity Prototype for Scene Recognition
- Title(参考訳): シーン認識のためのsemantic-embedded similarity prototype
- Authors: Chuanxin Song, Hanbo Wu, Xin Ma
- Abstract要約: 本稿では,ネットワークパラメータを増大させることなく,シーン認識ネットワークの精度向上を支援するセマンティック・ベースの類似性プロトタイプを提案する。
シンプルで、既存のパイプラインにプラグイン&プレイできる。コードと統計的類似性のプロトタイプがまもなく利用可能になる。
- 参考スコア(独自算出の注目度): 3.7321727859606724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the high inter-class similarity caused by the complex composition
within scenes and the co-existing objects across scenes, various studies have
explored object semantic knowledge within scenes to improve scene recognition.
However, a resulting issue arises as semantic segmentation or object detection
techniques demand heavy computational power, thereby burdening the network
considerably. This limitation often renders object-assisted approaches
incompatible with edge devices. In contrast, this paper proposes a
semantic-based similarity prototype that assists the scene recognition network
to achieve higher accuracy without increasing network parameters. It is simple
and can be plug-and-played into existing pipelines. More specifically, a
statistical strategy is introduced to depict semantic knowledge in scenes as
class-level semantic representations. These representations are utilized to
explore inter-class correlations, ultimately constructing a similarity
prototype. Furthermore, we propose two ways to use the similarity prototype to
support network training from the perspective of gradient label softening and
batch-level contrastive loss, respectively. Comprehensive evaluations on
multiple benchmarks show that our similarity prototype enhances the performance
of existing networks without adding any computational burden. Code and the
statistical similarity prototype will be available soon.
- Abstract(参考訳): シーン内における複雑な構成によるクラス間類似度の高さと、シーン間に存在するオブジェクトの共存により、様々な研究がシーン内におけるオブジェクトの意味知識を探索し、シーン認識を改善する。
しかし、セマンティックセグメンテーションやオブジェクト検出技術は重い計算力を必要とするため、ネットワークを著しく負担する。
この制限は、しばしばエッジデバイスと互換性のないオブジェクト支援アプローチをレンダリングする。
そこで本研究では,ネットワークパラメータを増加させることなく,シーン認識ネットワークの高精度化を支援する意味的類似性プロトタイプを提案する。
シンプルで、既存のパイプラインにプラグイン&プレイできる。
より具体的には、シーンのセマンティックな知識をクラスレベルのセマンティックな表現として表現するための統計戦略が導入された。
これらの表現はクラス間の相関を探索するために使われ、最終的に類似性のプロトタイプを構築する。
さらに,グラデーションラベル軟化とバッチレベルのコントラスト損失の観点から,ネットワークトレーニングを支援するために類似度プロトタイプを使用する2つの方法を提案する。
複数のベンチマークの総合的な評価から、我々の類似性プロトタイプは計算負担を伴わずに既存のネットワークの性能を向上させる。
コードと統計的類似性のプロトタイプが近く公開される。
関連論文リスト
- Hunting Attributes: Context Prototype-Aware Learning for Weakly
Supervised Semantic Segmentation [22.591512454923883]
我々は、インスタンスとコンテキスト間の知識バイアスが、インスタンスのセマンティクスを十分に理解するプロトタイプの能力に影響を与えると主張している。
プロトタイプ学習理論に触発された本研究では,インスタンスの多種多様かつきめ細かな特徴を捉えるために,プロトタイプ認識を活用することを提案する。
本稿では,コンテキスト型認識学習(CPAL:Context Prototype-Aware Learning)戦略を提案する。
論文 参考訳(メタデータ) (2024-03-12T13:11:58Z) - Adaptive Prototypical Networks [2.964978357715084]
ファウショット学習のためのプロトタイプネットワークは、エンコーダに埋め込み関数を学習し、類似した特徴を持つ画像を互いに近接して埋め込む。
メタテストフェーズにおいて,各クラスの埋め込みを他のクラスから直感的に切り離すアプローチを提案する。
これは、新しいタスクのサポートセットのサンプルとラベルを使用して、分類のためのエンコーダネットワークをトレーニングすることで達成される。
論文 参考訳(メタデータ) (2022-11-22T18:45:58Z) - Self-Supervised Visual Representation Learning with Semantic Grouping [50.14703605659837]
我々は、未ラベルのシーン中心のデータから視覚表現を学習する問題に取り組む。
本研究では,データ駆動型セマンティックスロット,すなわちSlotConによる協調型セマンティックグルーピングと表現学習のためのコントラスト学習を提案する。
論文 参考訳(メタデータ) (2022-05-30T17:50:59Z) - Semantic Representation and Dependency Learning for Multi-Label Image
Recognition [76.52120002993728]
本稿では,各カテゴリのカテゴリ固有のセマンティック表現を学習するための,新しい,効果的なセマンティック表現と依存性学習(SRDL)フレームワークを提案する。
具体的には,カテゴリー別注意領域(CAR)モジュールを設計し,チャネル/空間的注意行列を生成してモデルを導出する。
また、カテゴリ間のセマンティック依存を暗黙的に学習するオブジェクト消去(OE)モジュールを設計し、セマンティック認識領域を消去する。
論文 参考訳(メタデータ) (2022-04-08T00:55:15Z) - Dense Semantic Contrast for Self-Supervised Visual Representation
Learning [12.636783522731392]
意味圏決定境界を密度の高いレベルでモデル化するためのDense Semantic Contrast(DSC)を提案する。
本稿では,多粒度表現学習のためのクロスイメージ・セマンティック・コントラッシブ・ラーニング・フレームワークを提案する。
実験結果から,DSCモデルは下流の高密度予測タスクに転送する場合に,最先端の手法よりも優れることがわかった。
論文 参考訳(メタデータ) (2021-09-16T07:04:05Z) - Prototypical Representation Learning for Relation Extraction [56.501332067073065]
本論文では, 遠隔ラベルデータから予測可能, 解釈可能, 堅牢な関係表現を学習することを目的とする。
文脈情報から各関係のプロトタイプを学習し,関係の本質的意味を最善に探求する。
いくつかの関係学習タスクの結果,本モデルが従来の関係モデルを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-03-22T08:11:43Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z) - Dynamic Semantic Matching and Aggregation Network for Few-shot Intent
Detection [69.2370349274216]
利用可能な注釈付き発話が不足しているため、インテント検出は困難である。
セマンティック成分はマルチヘッド自己認識によって発話から蒸留される。
本手法はラベル付きインスタンスとラベルなしインスタンスの両方の表現を強化するための総合的なマッチング手段を提供する。
論文 参考訳(メタデータ) (2020-10-06T05:16:38Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z) - Contextual Encoder-Decoder Network for Visual Saliency Prediction [42.047816176307066]
本稿では,大規模な画像分類タスクに基づいて事前学習した畳み込みニューラルネットワークに基づくアプローチを提案する。
得られた表現をグローバルなシーン情報と組み合わせて視覚的サリエンシを正確に予測する。
最先端技術と比較して、このネットワークは軽量な画像分類バックボーンに基づいている。
論文 参考訳(メタデータ) (2019-02-18T16:15:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。