論文の概要: Feature boosting with efficient attention for scene parsing
- arxiv url: http://arxiv.org/abs/2402.19250v1
- Date: Thu, 29 Feb 2024 15:22:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 14:25:26.551323
- Title: Feature boosting with efficient attention for scene parsing
- Title(参考訳): シーン解析の効率化による特徴増強
- Authors: Vivek Singh, Shailza Sharma and Fabio Cuzzolin
- Abstract要約: 本稿では,複数レベルの特徴抽出からコンテキストを収集する特徴抽出ネットワークを提案する。
各レベルの表現に対する注意重みを計算し、最終クラスラベルを生成する。
提案したモデルは、ADE20KとCityscapesのデータセットの両方において、最先端のモデルよりも優れています。
- 参考スコア(独自算出の注目度): 6.752935599738123
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The complexity of scene parsing grows with the number of object and scene
classes, which is higher in unrestricted open scenes. The biggest challenge is
to model the spatial relation between scene elements while succeeding in
identifying objects at smaller scales. This paper presents a novel
feature-boosting network that gathers spatial context from multiple levels of
feature extraction and computes the attention weights for each level of
representation to generate the final class labels. A novel `channel attention
module' is designed to compute the attention weights, ensuring that features
from the relevant extraction stages are boosted while the others are
attenuated. The model also learns spatial context information at low resolution
to preserve the abstract spatial relationships among scene elements and reduce
computation cost. Spatial attention is subsequently concatenated into a final
feature set before applying feature boosting. Low-resolution spatial attention
features are trained using an auxiliary task that helps learning a coarse
global scene structure. The proposed model outperforms all state-of-the-art
models on both the ADE20K and the Cityscapes datasets.
- Abstract(参考訳): シーン解析の複雑さは、制約のないオープンシーンでは高いオブジェクトとシーンクラスの数で増大する。
最大の課題は、シーン要素間の空間的関係をモデル化し、より小さなスケールでオブジェクトを識別することである。
本稿では,複数レベルの特徴抽出から空間コンテキストを収集し,各レベルの表現に対する注意重みを算出し,最終クラスラベルを生成する特徴ブースティングネットワークを提案する。
新しい「チャンネル・アテンション・モジュール」は、注意重みを計算するために設計され、関連する抽出段階からの特徴が促進され、他の特徴が減衰される。
モデルはまた、低解像度で空間コンテキスト情報を学び、シーン要素間の抽象的な空間関係を保ち、計算コストを低減する。
その後、機能ブースティングを適用する前に、空間的注意を最終機能セットに結合する。
粗いグローバルシーン構造を学習する補助的タスクを用いて,低分解能空間注意特徴を訓練する。
提案されたモデルは、ade20kとcityscapesデータセットの両方の最先端モデルよりも優れている。
関連論文リスト
- Core Context Aware Attention for Long Context Language Modeling [50.774702091154204]
本稿では,CCA(Core Context Aware)アテンションを効果的に長距離コンテキストモデリングのためのプラグイン・アンド・プレイとして提案する。
CCA-Attentionは、計算効率と長文モデリング能力の観点から、最先端モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2024-12-17T01:54:08Z) - S3PT: Scene Semantics and Structure Guided Clustering to Boost Self-Supervised Pre-Training for Autonomous Driving [12.406655155106424]
そこで本稿では,S3PTによるシーンセマンティクスと構造案内クラスタリングを提案する。
まず、セマンティックな分布一貫したクラスタリングを取り入れて、オートバイや動物のような稀なクラスをよりよく表現できるようにします。
第2に,広い背景領域から歩行者や交通標識などの小さな物体まで,不均衡で多様な物体の大きさを扱うために,一貫した空間クラスタリングを導入する。
第3に,シーンの幾何学的情報に基づいて学習を規則化するための深度誘導空間クラスタリングを提案する。
論文 参考訳(メタデータ) (2024-10-30T15:00:06Z) - Object-level Scene Deocclusion [92.39886029550286]
オブジェクトレベルのシーン・デクルージョンのためのPArallel可視・コミュールト拡散フレームワークPACOを提案する。
PACOをトレーニングするために、500kサンプルの大規模なデータセットを作成し、自己教師付き学習を可能にします。
COCOAと様々な現実世界のシーンの実験では、PACOがシーンの排除に優れた能力を示し、芸術の状態をはるかに上回っている。
論文 参考訳(メタデータ) (2024-06-11T20:34:10Z) - CloudAttention: Efficient Multi-Scale Attention Scheme For 3D Point
Cloud Learning [81.85951026033787]
この作業にトランスフォーマーをセットし、それらを形状分類と部分およびシーンセグメンテーションのための階層的なフレームワークに組み込む。
また、各イテレーションにおけるサンプリングとグループ化を活用して、効率的でダイナミックなグローバルなクロスアテンションを計算します。
提案した階層モデルは,最先端の形状分類を平均精度で達成し,従来のセグメンテーション法と同等の結果を得る。
論文 参考訳(メタデータ) (2022-07-31T21:39:15Z) - Rethinking Query-Key Pairwise Interactions in Vision Transformers [5.141895475956681]
本稿では,問合せキーの対の相互作用を排除し,注意重みを求めるために計算効率の高い相性ゲートを用いるキーオンリーの注意を提案する。
我々は、ImageNet分類ベンチマークのパラメータ限定設定において、最先端の精度に達する新しい自己注意モデルファミリーLinGlosを開発した。
論文 参考訳(メタデータ) (2022-07-01T03:36:49Z) - NEAT: Neural Attention Fields for End-to-End Autonomous Driving [59.60483620730437]
本稿では、模倣学習モデルの効率的な推論を可能にする新しい表現であるNEAT(NEural Attention Field)を提案する。
NEATは、Bird's Eye View (BEV) シーン座標の位置をウェイポイントとセマンティクスにマッピングする連続関数である。
有害な環境条件や挑戦的なシナリオを含む新たな評価環境では、NEATはいくつかの強いベースラインを上回り、特権のあるCARLA専門家と同等の運転スコアを達成している。
論文 参考訳(メタデータ) (2021-09-09T17:55:28Z) - Spatial-Temporal Correlation and Topology Learning for Person
Re-Identification in Videos [78.45050529204701]
クロススケール空間時空間相関をモデル化し, 識別的, 堅牢な表現を追求する新しい枠組みを提案する。
CTLはCNNバックボーンとキーポイント推定器を使用して人体から意味的局所的特徴を抽出する。
グローバルな文脈情報と人体の物理的接続の両方を考慮して、多スケールグラフを構築するためのコンテキスト強化トポロジーを探求する。
論文 参考訳(メタデータ) (2021-04-15T14:32:12Z) - Multi-layer Feature Aggregation for Deep Scene Parsing Models [19.198074549944568]
本稿では,深層解析ネットワークにおける多層特徴出力の空間-意味的整合性に対する有効利用について検討する。
提案モジュールは、空間情報と意味情報を相関付けるために、中間視覚特徴を自動選択することができる。
4つの公開シーン解析データセットの実験により、提案した機能集約モジュールを備えたディープパーシングネットワークは、非常に有望な結果が得られることが証明された。
論文 参考訳(メタデータ) (2020-11-04T23:07:07Z) - Mutual Information Maximization for Robust Plannable Representations [82.83676853746742]
モデルに基づく強化学習のための情報理論表現学習アルゴリズムMIROを提案する。
提案手法は, 邪魔や散らかったシーンの存在下で, 再建目的よりも頑健であることを示す。
論文 参考訳(メタデータ) (2020-05-16T21:58:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。