論文の概要: Video Camera Identification from Sensor Pattern Noise with a Constrained
ConvNet
- arxiv url: http://arxiv.org/abs/2012.06277v1
- Date: Fri, 11 Dec 2020 12:17:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 13:06:38.920806
- Title: Video Camera Identification from Sensor Pattern Noise with a Constrained
ConvNet
- Title(参考訳): Constrained ConvNetを用いたセンサパターンノイズからの映像カメラの同定
- Authors: Derrick Timmerman, Swaroop Bennabhaktula, Enrique Alegre and George
Azzopardi
- Abstract要約: 本稿では,ビデオフレームから抽出したカメラ固有のノイズパターンに基づいて,映像のソースカメラを識別する手法を提案する。
本システムは,映像フレームを個別に分類し,多数決によりソースカメラの識別を行うように設計されている。
この研究は、子どもの性的虐待に対する法医学に焦点を当てたEUが支援するプロジェクト4NSEEKの一部です。
- 参考スコア(独自算出の注目度): 7.229968041355052
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The identification of source cameras from videos, though it is a highly
relevant forensic analysis topic, has been studied much less than its
counterpart that uses images. In this work we propose a method to identify the
source camera of a video based on camera specific noise patterns that we
extract from video frames. For the extraction of noise pattern features, we
propose an extended version of a constrained convolutional layer capable of
processing color inputs. Our system is designed to classify individual video
frames which are in turn combined by a majority vote to identify the source
camera. We evaluated this approach on the benchmark VISION data set consisting
of 1539 videos from 28 different cameras. To the best of our knowledge, this is
the first work that addresses the challenge of video camera identification on a
device level. The experiments show that our approach is very promising,
achieving up to 93.1% accuracy while being robust to the WhatsApp and YouTube
compression techniques. This work is part of the EU-funded project 4NSEEK
focused on forensics against child sexual abuse.
- Abstract(参考訳): ビデオからのソースカメラの識別は、非常に関連性の高い鑑識分析のトピックであるが、画像を使用するそれよりもはるかに研究されていない。
本研究では,ビデオフレームから抽出したカメラ固有のノイズパターンに基づいて,映像のソースカメラを特定する手法を提案する。
ノイズパターンの特徴を抽出するために,色入力を処理可能な制約付き畳み込み層の拡張版を提案する。
本システムは,映像フレームを個別に分類し,多数決によりソースカメラの識別を行うように設計されている。
提案手法は,28台のカメラから1539本の動画を収録したベンチマークVISIONデータセットを用いて評価した。
私たちの知る限りでは、これはデバイスレベルでビデオカメラの識別の課題に対処する最初の仕事です。
実験によると、我々のアプローチは非常に有望であり、WhatsAppやYouTubeの圧縮技術に頑丈でありながら、93.1%の精度を実現している。
この研究はEUが支援する4NSEEKプロジェクトの一部であり、児童性的虐待に対する法医学に焦点を当てている。
関連論文リスト
- Temporal and Contextual Transformer for Multi-Camera Editing of TV Shows [83.54243912535667]
まず、コンサート、スポーツゲーム、ガラショー、コンテストを含む4つの異なるシナリオを用いて、この設定に関する新しいベンチマークを収集する。
14時間編集されたビデオに貢献する88時間の生のビデオが含まれている。
歴史的ショットやその他の視点からのヒントを利用してショット遷移決定を行う新しいアプローチである時間的・文脈的変換器を提案する。
論文 参考訳(メタデータ) (2022-10-17T04:11:23Z) - Digital Image Forensics using Deep Learning [0.0]
本プロジェクトの目的は、画像に内在的に残されている情報のトレースを用いて、どのカメラが画像をキャプチャしたかを特定するアルゴリズムを構築することである。
この問題を解決することは、刑事裁判や民事裁判、さらにはニュース報道で使われた証拠の検証に大きな影響を与えるだろう。
論文 参考訳(メタデータ) (2022-10-14T02:27:34Z) - PRNU Based Source Camera Identification for Webcam and Smartphone Videos [137.6408511310322]
このコミュニケーションは、Webカメラ/スマートフォンビデオのソースカメラ(SCI: Source Camera Identification)を特定するためにカメラセンサ指紋を使用する画像法医学の応用に関するものである。
論文 参考訳(メタデータ) (2022-01-27T18:57:14Z) - A new Video Synopsis Based Approach Using Stereo Camera [0.5801044612920815]
物体に基づく教師なし学習を用いた新しい異常検出法を開発した。
この方法を用いて、映像データを画素として処理し、その結果をビデオセグメントとして生成する。
私たちが開発したモデルは、単眼カメラとデュアルカメラシステムで別々にテストされ、検証されている。
論文 参考訳(メタデータ) (2021-06-23T12:57:47Z) - Efficient video integrity analysis through container characterization [77.45740041478743]
本稿では,ビデオ操作に使用するソフトウェアをコンテナベースで識別する手法を提案する。
提案手法は効率的かつ効果的であり,その決定の簡易な説明も可能である。
プリストインを改ざんされたビデオと区別し、編集ソフトを分類することで97.6%の精度を達成している。
論文 参考訳(メタデータ) (2021-01-26T14:13:39Z) - The Forchheim Image Database for Camera Identification in the Wild [10.091921099426294]
Forchheim Image Database (FODB)は、27台のスマートフォンカメラで143シーンの23,000枚以上の画像で構成されている。
各画像は、オリジナルのカメラネイティブバージョンと、ソーシャルネットワークから5つのコピーの6つの異なる品質で提供される。
汎用EfficientNetは、クリーン画像と圧縮画像の両方で、いくつかの専門のCNNを著しく上回っている。
論文 参考訳(メタデータ) (2020-11-04T11:54:54Z) - A leak in PRNU based source identification. Questioning fingerprint
uniqueness [75.33542585238497]
Photo Response Non-Uniformity (PRNU) は、画像ソース属性タスクにおいて最も効果的なトレースであると考えられている。
近年のデバイスは、PRNUノイズの識別性を低下させる非特異なアーティファクトを導入する可能性がある。
誤報率の主な原因は、特定のカメラモデル、ファームウェア、画像の内容に直接関連しないことを示す。
論文 参考訳(メタデータ) (2020-09-10T14:18:38Z) - A Modified Fourier-Mellin Approach for Source Device Identification on
Stabilized Videos [72.40789387139063]
マルチメディアの法医学ツールは通常 取得したフレームに カメラセンサーが残した 特徴的なノイズの痕跡を利用する
この分析では,カメラを特徴付けるノイズパターンと,解析対象の映像フレームから抽出したノイズパターンを幾何学的に整列させる必要がある。
本稿では,周波数領域におけるスケーリングと回転パラメータの探索により,この制限を克服することを提案する。
論文 参考訳(メタデータ) (2020-05-20T12:06:40Z) - Device-based Image Matching with Similarity Learning by Convolutional
Neural Networks that Exploit the Underlying Camera Sensor Pattern Noise [6.6602878519516135]
本稿では,ある画像が同一のソースカメラを持つ可能性を定量化する2部ネットワークを提案する。
我々の知る限りでは、デバイスベースの画像マッチングの課題に対処する最初の人物である。
この研究はEUが支援する4NSEEKプロジェクトの一部であり、児童性的虐待に対する法医学に関するものである。
論文 参考訳(メタデータ) (2020-04-23T20:03:40Z) - Camera Trace Erasing [86.15997461603568]
我々は、トレースベースの法医学的手法の弱点を明らかにするために、新しい低レベル視覚問題であるカメラトレース消去に対処する。
そこで我々は,ネットワークトレーニングのためのSiameseアーキテクチャに基づいて,新たなハイブリッドロスを設計したSiamese Trace Erasing (SiamTE)を提案する。
論文 参考訳(メタデータ) (2020-03-16T00:09:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。