論文の概要: CriSp: Leveraging Tread Depth Maps for Enhanced Crime-Scene Shoeprint Matching
- arxiv url: http://arxiv.org/abs/2404.16972v2
- Date: Tue, 30 Jul 2024 19:07:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-01 20:15:23.078082
- Title: CriSp: Leveraging Tread Depth Maps for Enhanced Crime-Scene Shoeprint Matching
- Title(参考訳): CriSp:犯罪現場のショットプリントマッチングを強化したトレッド深度マップ
- Authors: Samia Shafique, Shu Kong, Charless Fowlkes,
- Abstract要約: ショットプリントは、犯罪現場で見られる一般的なタイプの証拠であり、法医学的な調査で定期的に使用される。
既存の手法では、靴データベースにノイズや隠蔽された犯罪現場の靴紋をマッチングするために、ディープラーニングを効果的に活用することはできない。
このデータに基づいて,犯罪現場の靴のプリントと深度マップのトレッドマッチングを行うCriSpを提案する。
CriSpは、このタスクに適した自動靴形マッチングと画像検索の両方において、最先端の手法を大幅に上回っている。
- 参考スコア(独自算出の注目度): 8.153893958726117
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Shoeprints are a common type of evidence found at crime scenes and are used regularly in forensic investigations. However, existing methods cannot effectively employ deep learning techniques to match noisy and occluded crime-scene shoeprints to a shoe database due to a lack of training data. Moreover, all existing methods match crime-scene shoeprints to clean reference prints, yet our analysis shows matching to more informative tread depth maps yields better retrieval results. The matching task is further complicated by the necessity to identify similarities only in corresponding regions (heels, toes, etc) of prints and shoe treads. To overcome these challenges, we leverage shoe tread images from online retailers and utilize an off-the-shelf predictor to estimate depth maps and clean prints. Our method, named CriSp, matches crime-scene shoeprints to tread depth maps by training on this data. CriSp incorporates data augmentation to simulate crime-scene shoeprints, an encoder to learn spatially-aware features, and a masking module to ensure only visible regions of crime-scene prints affect retrieval results. To validate our approach, we introduce two validation sets by reprocessing existing datasets of crime-scene shoeprints and establish a benchmarking protocol for comparison. On this benchmark, CriSp significantly outperforms state-of-the-art methods in both automated shoeprint matching and image retrieval tailored to this task.
- Abstract(参考訳): ショットプリントは、犯罪現場で見られる一般的なタイプの証拠であり、法医学的な調査で定期的に使用される。
しかし, 既存の手法では, トレーニングデータの不足により, 靴データベースにノイズや隠蔽された犯罪現場の靴跡をマッチングするために, ディープラーニングを効果的に活用することはできない。
さらに, 既存の手法はすべて犯罪現場の靴版と一致し, 基準印刷のクリーン化を図っているが, より情報に富んだトレッド深度マップとのマッチングにより, より優れた検索結果が得られることを示す。
マッチングタスクは、印刷物や靴のトレッドの対応する領域(ヒール、つま先等)にのみ類似性を識別する必要があるため、さらに複雑になる。
これらの課題を克服するために、オンライン小売業者の靴のトレッド画像を活用し、市販の予測器を用いて深度マップとクリーンプリントを推定する。
このデータに基づいて,犯罪現場の靴のプリントと深度マップのトレッド・デプス・マップのマッチングを行う。
CriSpには、犯罪現場の靴のプリントをシミュレートするデータ拡張、空間的に認識される特徴を学習するエンコーダ、犯罪現場のプリントの可視領域だけが検索結果に影響を与えることを保証するマスクモジュールが含まれている。
提案手法を検証するために,既存の犯罪現場の靴のデータセットを再処理し,比較のためのベンチマークプロトコルを確立することにより,2つの検証セットを導入する。
このベンチマークでは、CriSpは、このタスクに適した自動靴形マッチングと画像検索の両方において、最先端の手法を大幅に上回っている。
関連論文リスト
- Generating Automatically Print/Scan Textures for Morphing Attack Detection Applications [7.287930923353593]
主なシナリオの1つは、モルヒネ画像を印刷し、パスポートアプリケーションプロセスで各プリントを送信することである。
プライバシー上の懸念から、MADアルゴリズムをトレーニングするための小さなデータセットが利用可能だ。
本稿では,デジタル印刷/スキャン顔画像の自動生成のための転送転送に基づく2つの異なる手法を提案する。
論文 参考訳(メタデータ) (2024-08-18T17:53:26Z) - Improving and Evaluating Machine Learning Methods for Forensic Shoeprint Matching [0.2509487459755192]
法医学的な靴紋パターンマッチングのための機械学習パイプラインを提案する。
エッジ検出による2次元画像から2次元座標を抽出し, 反復的最近点(ICP)と整列する。
次に、類似度指標を抽出し、2つの印刷物がどれだけうまく一致しているかを定量化し、これらの指標を用いてランダムな森林を訓練する。
論文 参考訳(メタデータ) (2024-04-02T15:24:25Z) - A Fixed-Point Approach to Unified Prompt-Based Counting [51.20608895374113]
本研究の目的は,ボックス,ポイント,テキストなど,さまざまなプロンプト型で示されるオブジェクトの密度マップを生成することができる包括的プロンプトベースのカウントフレームワークを確立することである。
本モデルは,クラスに依存しない顕著なデータセットに優れ,データセット間の適応タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-15T12:05:44Z) - Comprint: Image Forgery Detection and Localization using Compression
Fingerprints [19.54952278001317]
Comprintは、圧縮指紋またはコンプリントに基づく、新しい偽造検出および位置決め方法である。
補足型カメラモデル指紋を用いたComprintと最先端のノイズプリントの融合を提案する。
ComprintとFusion Comprint+Noiseprintは、Wildで改ざんされた画像を分析するための有望な法医学ツールだ。
論文 参考訳(メタデータ) (2022-10-05T13:05:18Z) - ShoeRinsics: Shoeprint Prediction for Forensics with Intrinsic
Decomposition [29.408442567550004]
オンライン小売業者が収集した靴のトレッド写真を活用することを提案する。
我々は,1枚のトレッド写真から本質的な画像分解を行うモデルを開発した。
ShoeRinsicsと呼ばれる我々のアプローチは、完全に教師付き合成データと教師なしの小売画像データの組み合わせを活用するために、ドメイン適応と再レンダリング損失を組み合わせたものです。
論文 参考訳(メタデータ) (2022-05-04T23:42:55Z) - SpoofGAN: Synthetic Fingerprint Spoof Images [47.87570819350573]
指紋スプーフ検出の進歩に対する大きな制限は、公開可能な大規模な指紋スプーフデータセットの欠如である。
この研究は、これらのアルゴリズムに十分なデータを供給する際に、合成指紋(ライブ指紋とスプーフ指紋の両方)の有用性を実証することを目的としている。
論文 参考訳(メタデータ) (2022-04-13T16:27:27Z) - Learning Co-segmentation by Segment Swapping for Retrieval and Discovery [67.6609943904996]
この研究の目的は、一対のイメージから視覚的に類似したパターンを効率的に識別することである。
画像中のオブジェクトセグメントを選択し、それを別の画像にコピーペーストすることで、合成トレーニングペアを生成する。
提案手法は,Brueghelデータセット上でのアートワークの詳細検索に対して,明確な改善をもたらすことを示す。
論文 参考訳(メタデータ) (2021-10-29T16:51:16Z) - Grasp-Oriented Fine-grained Cloth Segmentation without Real Supervision [66.56535902642085]
本稿では, 深度画像のみを用いて, 変形した衣服のきめ細かい領域検出の問題に取り組む。
最大で6つの意味領域を定義し, 首の縁, スリーブカフ, ヘム, 上と下をつかむ点を含む。
これらの部品のセグメント化とラベル付けを行うために,U-net ベースのネットワークを導入する。
合成データのみを用いてネットワークをトレーニングし、提案したDAが実データでトレーニングしたモデルと競合する結果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-06T16:31:20Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z) - Hallucinating Saliency Maps for Fine-Grained Image Classification for
Limited Data Domains [27.91871214060683]
画像分類を改善するために,明示的なサリエンシマップを必要としないアプローチを提案する。
提案手法は,サリエンシマップを明示的に提供した場合と同じような結果が得られることを示す。
また,サリエンシ基盤データなしでトレーニングされたサリエンシ推定手法は,実画像サリエンシベンチマーク(Toronto)において競合する結果が得られることを示した。
論文 参考訳(メタデータ) (2020-07-24T15:08:55Z) - Latent Fingerprint Registration via Matching Densely Sampled Points [100.53031290339483]
既存の潜伏指紋登録手法は、主にミツバチ間の対応を確立することに基づいている。
本研究では,一対の指紋間の空間的変換を推定する,最小限の潜伏指紋登録手法を提案する。
提案手法は,特に挑戦的な条件下で,最先端の登録性能を実現する。
論文 参考訳(メタデータ) (2020-05-12T15:51:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。