論文の概要: Conditioning Covert Geo-Location (CGL) Detection on Semantic Class
Information
- arxiv url: http://arxiv.org/abs/2211.14750v1
- Date: Sun, 27 Nov 2022 07:21:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 18:22:24.513371
- Title: Conditioning Covert Geo-Location (CGL) Detection on Semantic Class
Information
- Title(参考訳): 意味クラス情報を用いた条件付き被覆地位置検出(CGL)
- Authors: Binoy Saha, Sukhendu Das
- Abstract要約: サハらによってCCGL(Covert Geo-Location)検出と呼ばれる潜在的な隠蔽物を特定するタスクが提案された。
セマンティッククラス情報を利用する試みは行われなかった。
本稿では,2つの目標を達成するためのマルチタスク学習に基づくアプローチを提案する。i) 意味クラス情報を持つ特徴の抽出;i) 共通エンコーダの堅牢なトレーニング。
- 参考スコア(独自算出の注目度): 5.660207256468971
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The primary goal of artificial intelligence is to mimic humans. Therefore, to
advance toward this goal, the AI community attempts to imitate qualities/skills
possessed by humans and imbibes them into machines with the help of
datasets/tasks. Earlier, many tasks which require knowledge about the objects
present in an image are satisfactorily solved by vision models. Recently, with
the aim to incorporate knowledge about non-object image regions (hideouts,
turns, and other obscured regions), a task for identification of potential
hideouts termed Covert Geo-Location (CGL) detection was proposed by Saha et al.
It involves identification of image regions which have the potential to either
cause an imminent threat or appear as target zones to be accessed for further
investigation to identify any occluded objects. Only certain occluding items
belonging to certain semantic classes can give rise to CGLs. This fact was
overlooked by Saha et al. and no attempts were made to utilize semantic class
information, which is crucial for CGL detection. In this paper, we propose a
multitask-learning-based approach to achieve 2 goals - i) extraction of
features having semantic class information; ii) robust training of the common
encoder, exploiting large standard annotated datasets as training set for the
auxiliary task (semantic segmentation). To explicitly incorporate class
information in the features extracted by the encoder, we have further employed
attention mechanism in a novel manner. We have also proposed a better
evaluation metric for CGL detection that gives more weightage to recognition
rather than precise localization. Experimental evaluations performed on the CGL
dataset, demonstrate a significant increase in performance of about 3% to 14%
mIoU and 3% to 16% DaR on split 1, and 1% mIoU and 1% to 2% DaR on split 2 over
SOTA, serving as a testimony to the superiority of our approach.
- Abstract(参考訳): 人工知能の主な目標は人間を模倣することである。
そのため、この目標に向かって進むために、AIコミュニティは、人間が所有する品質/スキルを模倣し、データセット/タスクの助けを借りてマシンに組み込もうとしている。
以前、画像に存在するオブジェクトに関する知識を必要とする多くのタスクは、視覚モデルによって十分解決された。
近年,非対象画像領域(ハイドアウト,ターン,その他の未知領域)に関する知識を取り入れることを目的として,SahaらによってCGL検出と呼ばれる隠れ領域の特定が提案されている。
それは、差し迫った脅威を引き起こす可能性のある画像領域を識別すること、または、隠蔽された物体を識別するためのさらなる調査のためにターゲットゾーンとして現れることを含む。
特定の意味クラスに属する特定の排他的項目だけがCGLを引き起こす。
この事実はSahaらによって見落とされ、CGL検出に不可欠なセマンティッククラス情報を利用する試みは行われなかった。
本稿では,2つの目標を達成するためのマルチタスク学習に基づくアプローチを提案する。
一 意味クラス情報を有する特徴の抽出
二 補助的タスク(意味的セグメンテーション)のトレーニングセットとして、大きな標準アノテーション付きデータセットを利用する共通エンコーダの堅牢なトレーニング。
エンコーダが抽出した特徴にクラス情報を明示的に組み込むため,我々は新たな注意機構を取り入れた。
また,正確な位置推定よりも認識に重み付けを与えるCGL検出のためのより良い評価基準を提案した。
CGLデータセットを用いて行った実験の結果, 分割1では約3%から14% mIoU, 3%から16% DaR, SOTAでは1% mIoU, 1%から2% DaRが顕著に増加し, このアプローチの優位性を示す結果となった。
関連論文リスト
- Self-supervised Learning via Cluster Distance Prediction for Operating Room Context Awareness [44.15562068190958]
オペレーティングルームでは、セマンティックセグメンテーションは、臨床環境を認識したロボットを作るための中核である。
最先端のセマンティックセグメンテーションとアクティビティ認識アプローチは、スケーラブルではない、完全に管理されている。
ToFカメラで撮影したORシーン画像を利用したORシーン理解のための新しい3次元自己教師型タスクを提案する。
論文 参考訳(メタデータ) (2024-07-07T17:17:52Z) - SCE-MAE: Selective Correspondence Enhancement with Masked Autoencoder for Self-Supervised Landmark Estimation [20.29438820908913]
自己監督的ランドマーク推定は、局所的な特徴表現の形成を要求する困難なタスクである。
本稿では,高価なハイパーカラムではなく,バニラ特徴マップ上で動作するフレームワークであるSCE-MAEを紹介する。
我々は,SCE-MAEが高効率で頑健であり,既存のSOTA法よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2024-05-28T16:14:10Z) - Exploiting Object-based and Segmentation-based Semantic Features for Deep Learning-based Indoor Scene Classification [0.5572976467442564]
本稿では,オブジェクト検出から得られたセマンティック情報とセマンティックセグメンテーション技術の両方を用いる。
セグメンテーションマスクを用いて,Hu-Moments Features (SHMFs)によって指定されたHu-Momentsベースのセグメンテーションカテゴリの形状特徴を提供する手法を提案する。
GOS$2$F$2$Appによって指定された3つのメインブランチネットワークも提案されている。
論文 参考訳(メタデータ) (2024-04-11T13:37:51Z) - Optimization Efficient Open-World Visual Region Recognition [55.76437190434433]
RegionSpotは、ローカライゼーション基盤モデルから位置認識ローカライゼーション知識と、ViLモデルからのセマンティック情報を統合する。
オープンワールドオブジェクト認識の実験では、私たちのRereaSpotは、以前の代替よりも大きなパフォーマンス向上を実現しています。
論文 参考訳(メタデータ) (2023-11-02T16:31:49Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Goal-Oriented Gaze Estimation for Zero-Shot Learning [62.52340838817908]
識別的属性の局在性を改善するために, 目標指向視線推定モジュール(GEM)を提案する。
属性記述に導かれた新しい物体を認識する視覚注意領域を得るために,実際の人間の視線位置を予測することを目的とする。
この研究は、高レベルのコンピュータビジョンタスクに人間の視線データセットと自動視線推定アルゴリズムを集めることの有望な利点を示しています。
論文 参考訳(メタデータ) (2021-03-05T02:14:57Z) - PGL: Prior-Guided Local Self-supervised Learning for 3D Medical Image
Segmentation [87.50205728818601]
本稿では,潜在特徴空間における局所的一貫性を学習するPGL(PresideedGuided Local)自己教師モデルを提案する。
我々のPGLモデルは、局所領域の特異な表現を学習し、したがって構造情報を保持できる。
論文 参考訳(メタデータ) (2020-11-25T11:03:11Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z) - Grounded Situation Recognition [56.18102368133022]
画像の構造的要約を生成することを必要とする課題であるグラウンドドコンディション認識(GSR)を導入する。
GSRはセマンティック・サリエンシの識別、大規模で多様なエンティティの分類とローカライズという重要な技術的課題を提示している。
我々は,条件付きクエリ,視覚連鎖,接地型セマンティック・アウェアネス・イメージ検索の3つのモデルによって実現される3つの将来方向について,最初の知見を示す。
論文 参考訳(メタデータ) (2020-03-26T17:57:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。