論文の概要: Flexible image analysis for law enforcement agencies with deep neural networks to determine: where, who and what
- arxiv url: http://arxiv.org/abs/2405.09194v1
- Date: Wed, 15 May 2024 09:02:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-16 13:56:07.867612
- Title: Flexible image analysis for law enforcement agencies with deep neural networks to determine: where, who and what
- Title(参考訳): 深層ニューラルネットワークを用いた法執行機関のフレキシブル画像解析
- Authors: Henri Bouma, Bart Joosten, Maarten C Kruithof, Maaike H T de Boer, Alexandru Ginsca, Benjamin Labbe, Quoc T Vuong,
- Abstract要約: 法執行機関(LEA)は、ラディカル化の発見やテロリスト組織へのプロパガンダ、ダークネット市場における違法な製品など、画像やビデオを検査している。
直接検索する代わりに、LEAは新たな犯罪や脅威に適応し、特定の場所、人、または対象からのデータにのみ焦点を合わせたいと考えている。
深層畳み込みニューラルネットワーク(CNN)による視覚概念検出は、画像の内容を理解する上で重要な要素である。
- 参考スコア(独自算出の注目度): 36.136619420474766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the increasing need for effective security measures and the integration of cameras in commercial products, a hugeamount of visual data is created today. Law enforcement agencies (LEAs) are inspecting images and videos to findradicalization, propaganda for terrorist organizations and illegal products on darknet markets. This is time consuming.Instead of an undirected search, LEAs would like to adapt to new crimes and threats, and focus only on data from specificlocations, persons or objects, which requires flexible interpretation of image content. Visual concept detection with deepconvolutional neural networks (CNNs) is a crucial component to understand the image content. This paper has fivecontributions. The first contribution allows image-based geo-localization to estimate the origin of an image. CNNs andgeotagged images are used to create a model that determines the location of an image by its pixel values. The secondcontribution enables analysis of fine-grained concepts to distinguish sub-categories in a generic concept. The proposedmethod encompasses data acquisition and cleaning and concept hierarchies. The third contribution is the recognition ofperson attributes (e.g., glasses or moustache) to enable query by textual description for a person. The person-attributeproblem is treated as a specific sub-task of concept classification. The fourth contribution is an intuitive image annotationtool based on active learning. Active learning allows users to define novel concepts flexibly and train CNNs with minimalannotation effort. The fifth contribution increases the flexibility for LEAs in the query definition by using query expansion.Query expansion maps user queries to known and detectable concepts. Therefore, no prior knowledge of the detectableconcepts is required for the users. The methods are validated on data with varying locations (popular and non-touristiclocations), varying person attributes (CelebA dataset), and varying number of annotations.
- Abstract(参考訳): 効果的なセキュリティ対策や、商用製品へのカメラの統合の必要性が高まっているため、今日では膨大なビジュアルデータが作成されている。
法執行機関(LEA)は、ラディカル化の発見やテロリスト組織へのプロパガンダ、ダークネット市場における違法な製品など、画像やビデオを検査している。
間接検索の代わりに、LEAは新たな犯罪や脅威に適応し、画像の内容の柔軟な解釈を必要とする特定の場所、人、物からのデータのみに焦点を当てたい。
深層畳み込みニューラルネットワーク(CNN)による視覚概念検出は、画像の内容を理解する上で重要な要素である。
この論文には5つの属性がある。
最初のコントリビューションでは、画像ベースのジオローカライゼーションにより、画像の起源を推定することができる。
CNNとジオタグ付き画像は、画像の位置をピクセル値で決定するモデルを作成するために使用される。
第2のコントリビューションは、粒度の細かい概念を分析して、ジェネリックな概念のサブカテゴリを区別することを可能にする。
提案手法は,データの取得とクリーニング,概念階層を含む。
第3のコントリビューションは、人物の属性(例えば、眼鏡、ムースタッシュ)を認識して、人に対するテキスト記述によるクエリを可能にすることである。
人属性プロブレムは、概念分類の特定のサブタスクとして扱われる。
第4のコントリビューションは,能動的学習に基づく直感的な画像アノテーションツールである。
アクティブな学習により、ユーザーは柔軟に新しい概念を定義し、最小限のアノテーションでCNNを訓練することができる。
第5のコントリビューションは、クエリ拡張を使用してクエリ定義におけるLEAの柔軟性を高める。クエリ拡張は、ユーザクエリを既知の、検出可能な概念にマッピングする。
したがって、ユーザーにとって検出可能な概念に関する事前の知識は必要ない。
これらの手法は、さまざまな場所(一般的な位置と非構造的位置)、さまざまな人属性(CelebAデータセット)、さまざまなアノテーションを持つデータに基づいて検証される。
関連論文リスト
- Descriminative-Generative Custom Tokens for Vision-Language Models [101.40245125955306]
本稿では,視覚言語モデル(VLM)における新しい概念を表現するためのカスタムトークンの学習の可能性について検討する。
本研究の目的は,識別的タスクと生成的タスクの両方に有効なトークンを学習し,単語をうまく合成して新しい入力クエリを構築することである。
論文 参考訳(メタデータ) (2025-02-17T18:13:42Z) - Exploring Fine-Grained Representation and Recomposition for Cloth-Changing Person Re-Identification [78.52704557647438]
補助的なアノテーションやデータなしに両方の制約に対処するために,新しいFIne-fine Representation and Recomposition (FIRe$2$) フレームワークを提案する。
FIRe$2$は、広く使われている5つのRe-IDベンチマークで最先端のパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2023-08-21T12:59:48Z) - Learning Transferable Pedestrian Representation from Multimodal
Information Supervision [174.5150760804929]
VAL-PATは、移動可能な表現を学習し、様々な歩行者分析タスクをマルチモーダル情報で強化する新しいフレームワークである。
まず、LUPerson-TAデータセットで事前トレーニングを行い、各画像にはテキストと属性アノテーションが含まれている。
次に、学習した表現を、人物のreID、人物属性認識、テキストベースの人物検索など、さまざまな下流タスクに転送する。
論文 参考訳(メタデータ) (2023-04-12T01:20:58Z) - Knowledge Mining with Scene Text for Fine-Grained Recognition [53.74297368412834]
本研究では,シーンテキスト画像の背景にある暗黙的な文脈知識をマイニングする,エンドツーエンドのトレーニング可能なネットワークを提案する。
我々は,KnowBertを用いて意味表現の関連知識を検索し,それを画像特徴と組み合わせ,きめ細かい分類を行う。
本手法は,3.72%のmAPと5.39%のmAPをそれぞれ上回っている。
論文 参考訳(メタデータ) (2022-03-27T05:54:00Z) - Hierarchical Semantic Segmentation using Psychometric Learning [17.417302703539367]
我々は,心理測定テストに基づいて,専門家からセグメンテーションアノテーションを収集する手法を開発した。
本手法は, 心理測定試験, アクティブクエリ選択, クエリ強化, ディープメトリック学習モデルから構成される。
本稿では, 合成画像, 空中画像, 組織像について評価し, 提案手法の有用性を示す。
論文 参考訳(メタデータ) (2021-07-07T13:38:33Z) - Learning to Focus: Cascaded Feature Matching Network for Few-shot Image
Recognition [38.49419948988415]
ディープネットワークは、多数の画像でトレーニングすることで、カテゴリのオブジェクトを正確に認識することを学ぶことができる。
低ショット画像認識タスク(low-shot image recognition task)として知られるメタラーニングの課題は、1つのカテゴリの認識モデルを学ぶためにアノテーション付き画像しか利用できない場合に発生する。
この問題を解決するため,Cascaded Feature Matching Network (CFMN) と呼ばれる手法を提案する。
EmphminiImageNet と Omniglot の2つの標準データセットを用いた数ショット学習実験により,本手法の有効性が確認された。
論文 参考訳(メタデータ) (2021-01-13T11:37:28Z) - Multi-Modal Retrieval using Graph Neural Networks [1.8911962184174562]
我々は、同じ高次元空間に埋め込まれた共同ビジョンと概念を学ぶ。
視覚と概念の関係をグラフ構造としてモデル化する。
また、選択的近傍接続に基づく新しい推論時間制御も導入する。
論文 参考訳(メタデータ) (2020-10-04T19:34:20Z) - Contextual Semantic Interpretability [16.18912769522768]
コンテキストをキャプチャするセマンティックボトルネックを調べます。
属性を解釈可能なスパースグループに集約する2層セマンティックボトルネックを使用する。
本モデルでは,Flickr画像の実際のテストセットに適用した場合,非解釈ベースラインと同程度の精度で予測を行う。
論文 参考訳(メタデータ) (2020-09-18T09:47:05Z) - Understanding the Role of Individual Units in a Deep Neural Network [85.23117441162772]
本稿では,画像分類と画像生成ネットワーク内の隠れ単位を系統的に同定する分析フレームワークを提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
第2に、シーンを生成するために訓練されたGANモデルについて、同様の分析手法を用いて分析する。
論文 参考訳(メタデータ) (2020-09-10T17:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。