論文の概要: Catch Me if You Can: A Novel Task for Detection of Covert Geo-Locations
(CGL)
- arxiv url: http://arxiv.org/abs/2202.02567v1
- Date: Sat, 5 Feb 2022 14:40:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 16:42:44.261179
- Title: Catch Me if You Can: A Novel Task for Detection of Covert Geo-Locations
(CGL)
- Title(参考訳): CGL(Covert Geo-Locations)検出のための新しいタスク
- Authors: Binoy Saha and Sukhendu Das
- Abstract要約: 隠れ家、ターン、その他の見えない場所などの画像領域も重要な情報を含んでいる。
本稿では、画像中のそのような位置を識別するためのインテリジェントな視覚補助具の設計を課題とする。
本研究では,CGL(Covert Geo-Location)検出と呼ばれる新しいタスクを提案する。
- 参考スコア(独自算出の注目度): 5.660207256468971
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most visual scene understanding tasks in the field of computer vision involve
identification of the objects present in the scene. Image regions like
hideouts, turns, & other obscured regions of the scene also contain crucial
information, for specific surveillance tasks. Task proposed in this paper
involves the design of an intelligent visual aid for identification of such
locations in an image, which has either the potential to create an imminent
threat from an adversary or appear as the target zones needing further
investigation. Covert places (CGL) for hiding behind an occluding object are
concealed 3D locations, not detectable from the viewpoint (camera). Hence this
involves delineating specific image regions around the projections of outer
boundary of the occluding objects, as places to be accessed around the
potential hideouts. CGL detection finds applications in military
counter-insurgency operations, surveillance with path planning for an
exploratory robot. Given an RGB image, the goal is to identify all CGLs in the
2D scene. Identification of such regions would require knowledge about the 3D
boundaries of obscuring items (pillars, furniture), their spatial location with
respect to the neighboring regions of the scene. We propose this as a novel
task, termed Covert Geo-Location (CGL) Detection. Classification of any region
of an image as a CGL (as boundary sub-segments of an occluding object that
conceals the hideout) requires examining the 3D relation between boundaries of
occluding objects and their neighborhoods & surroundings. Our method
successfully extracts relevant depth features from a single RGB image and
quantitatively yields significant improvement over existing object detection
and segmentation models adapted and trained for CGL detection. We also
introduce a novel hand-annotated CGL detection dataset containing 1.5K
real-world images for experimentation.
- Abstract(参考訳): コンピュータビジョンの分野におけるほとんどの視覚シーン理解タスクは、シーンに存在するオブジェクトの識別を伴う。
シーンの隠れ家、ターン、その他の不明瞭な領域などの画像領域も、特定の監視タスクのために重要な情報を含んでいる。
本稿では,画像中のそのような位置を識別するための知的視覚補助装置の設計について述べる。敵から差し迫った脅威を発生させる可能性や,さらなる調査を必要とする対象領域として現れる可能性について述べる。
対象物の後ろに隠れるカバー場所(CGL)を3D位置を隠蔽し、視点(カメラ)から検出できない。
したがって、occludingオブジェクトの外側境界の投影の周りの特定の画像領域を、潜在的な隠れ場所の周りでアクセス可能な場所として記述する。
CGL検出は、探索ロボットの経路計画による軍事的対緊急作戦、監視に応用される。
RGB画像が与えられた場合、ゴールは2Dシーン内のすべてのCGLを特定することである。
そのような地域を特定するには、周囲の地域に関する空間的位置(ピラー、家具)の3次元境界に関する知識が必要となる。
本研究では,CGL(Covert Geo-Location)検出と呼ばれる新しいタスクを提案する。
画像の任意の領域を(隠蔽を隠蔽する隠蔽対象の境界部分として)CGLとして分類するには、隠蔽対象の境界とそれらの近傍と周囲の境界の間の3D関係を調べる必要がある。
提案手法は,1枚のRGB画像から関連する深度特徴を抽出し,CGL検出に適応・訓練された既存の物体検出およびセグメント化モデルに対して,定量的に有意な改善をもたらす。
また,実験用の1.5k実世界画像を含む手書きのcgl検出データセットも紹介する。
関連論文リスト
- Multiview Scene Graph [7.460438046915524]
適切なシーン表現は、空間知性の追求の中心である。
未提示画像からマルチビューシーングラフ(MSG)を構築することを提案する。
MSGは、場所とオブジェクトノードを相互接続したシーンをトポロジ的に表現する。
論文 参考訳(メタデータ) (2024-10-15T02:04:05Z) - Towards Localizing Structural Elements: Merging Geometrical Detection with Semantic Verification in RGB-D Data [0.0]
本稿では, 壁面や地表面などの構造成分を局所化するための実時間パイプラインについて, 純三次元平面検出のための幾何計算を統合した。
並列なマルチスレッドアーキテクチャを持ち、環境中で検出されたすべての平面のポーズと方程式を正確に推定し、汎視的セグメンテーション検証を用いて地図構造を形成するものをフィルタリングし、検証された構成部品のみを保持する。
また、検出されたコンポーネントを統一された3次元シーングラフに(再)関連付けることで、幾何学的精度と意味的理解のギャップを埋めることもできる。
論文 参考訳(メタデータ) (2024-09-10T16:28:09Z) - Generating Visual Spatial Description via Holistic 3D Scene
Understanding [88.99773815159345]
視覚空間記述(VSD)は、画像内の対象物の空間的関係を記述するテキストを生成することを目的としている。
外部の3Dシーン抽出器を用いて,入力画像の3Dオブジェクトとシーン特徴を抽出する。
対象物の中心となる3次元空間シーングラフ(Go3D-S2G)を構築し,対象物の空間意味を総合的な3次元シーン内にモデル化する。
論文 参考訳(メタデータ) (2023-05-19T15:53:56Z) - DQnet: Cross-Model Detail Querying for Camouflaged Object Detection [54.82390534024954]
カモフラージュされた物体検出のための畳み込みニューラルネットワーク(CNN)は、完全な対象範囲を無視しながら局所的な識別領域を活性化する傾向がある。
本稿では,CNNの内在的特性から部分的活性化が引き起こされることを論じる。
完全なオブジェクト範囲を活性化できる特徴マップを得るために,クロスモデル詳細クエリネットワーク(DQnet)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-16T06:23:58Z) - Conditioning Covert Geo-Location (CGL) Detection on Semantic Class
Information [5.660207256468971]
サハらによってCCGL(Covert Geo-Location)検出と呼ばれる潜在的な隠蔽物を特定するタスクが提案された。
セマンティッククラス情報を利用する試みは行われなかった。
本稿では,2つの目標を達成するためのマルチタスク学習に基づくアプローチを提案する。i) 意味クラス情報を持つ特徴の抽出;i) 共通エンコーダの堅牢なトレーニング。
論文 参考訳(メタデータ) (2022-11-27T07:21:59Z) - Spatial Relation Graph and Graph Convolutional Network for Object Goal
Navigation [9.127836379667531]
本稿では,ロボットが対象のクラスに最も近いインスタンスをランダムな開始位置から発見・移動する必要があるオブジェクトゴールナビゲーションタスクのためのフレームワークについて述べる。
このフレームワークは、ロボットの歴史を用いて、異なるインスタンスラベル付き領域の近さと、これらの領域における異なるオブジェクトクラスの発生の可能性について、軌道を学習する。
評価中に対象物を見つけるために、ロボットはベイズ推定とSRGを用いて可視領域を推定し、学習したGCN埋め込みを用いて可視領域をランク付けし、次に探索する領域を選択する。
論文 参考訳(メタデータ) (2022-08-27T14:49:04Z) - HyperDet3D: Learning a Scene-conditioned 3D Object Detector [154.84798451437032]
本研究では3次元物体検出のためのシーン条件付き事前知識を探索するためにHyperDet3Dを提案する。
我々のHyperDet3Dは、ScanNetとSUN RGB-Dデータセットの3Dオブジェクト検出ベンチマークで最先端の結果を得る。
論文 参考訳(メタデータ) (2022-04-12T07:57:58Z) - ImpDet: Exploring Implicit Fields for 3D Object Detection [74.63774221984725]
我々は、境界ボックス回帰を暗黙の関数として見る新しい視点を導入する。
これは、Implicit DetectionまたはImpDetと呼ばれる提案されたフレームワークにつながります。
我々のImpDetは、異なる局所的な3次元空間の点に特定の値を割り当て、高品質な境界を生成することができる。
論文 参考訳(メタデータ) (2022-03-31T17:52:12Z) - SOON: Scenario Oriented Object Navigation with Graph-based Exploration [102.74649829684617]
人間のように3Dエンボディ環境のどこからでも言語ガイドされたターゲットに向かって移動する能力は、インテリジェントロボットの「聖杯」目標の1つです。
ほとんどのビジュアルナビゲーションベンチマークは、ステップバイステップの詳細な命令セットに導かれ、固定された出発点から目標に向かって移動することに焦点を当てている。
このアプローチは、人間だけが物体とその周囲がどのように見えるかを説明する現実世界の問題から逸脱し、ロボットにどこからでも航行を依頼する。
論文 参考訳(メタデータ) (2021-03-31T15:01:04Z) - An Overview Of 3D Object Detection [21.159668390764832]
マルチクラスオブジェクト認識を行うために,RGBデータとポイントクラウドデータの両方を用いるフレームワークを提案する。
最近リリースされたnuScenesデータセット - 大規模なデータセットには多くのデータフォーマットが含まれています - をトレーニングし、提案したアーキテクチャを評価します。
論文 参考訳(メタデータ) (2020-10-29T14:04:50Z) - Know Your Surroundings: Exploiting Scene Information for Object Tracking [181.1750279330811]
現在の最先端トラッカーは、各フレーム内のオブジェクトをローカライズするためにターゲットの外観モデルのみに依存している。
本研究では,トラッキングにシーン情報を利用する新しいトラッキングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-24T17:59:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。