論文の概要: Forensic Analysis of Video Files Using Metadata
- arxiv url: http://arxiv.org/abs/2105.06361v1
- Date: Thu, 13 May 2021 15:40:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-14 16:47:45.957985
- Title: Forensic Analysis of Video Files Using Metadata
- Title(参考訳): メタデータを用いたビデオファイルの法医学的解析
- Authors: Ziyue Xiang, J\'anos Horv\'ath, Sriram Baireddy, Paolo Bestagini,
Stefano Tubaro, Edward J. Delp
- Abstract要約: 本稿では,MP4木構造を用いたメタデータ抽出手法について述べる。
本稿では,メタデータから機能を構築する方法を説明し,ビデオファイルの法医学的解析に次元的縮小と近傍の分類を用いる。
- 参考スコア(独自算出の注目度): 30.216215904150346
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The unprecedented ease and ability to manipulate video content has led to a
rapid spread of manipulated media. The availability of video editing tools
greatly increased in recent years, allowing one to easily generate
photo-realistic alterations. Such manipulations can leave traces in the
metadata embedded in video files. This metadata information can be used to
determine video manipulations, brand of video recording device, the type of
video editing tool, and other important evidence. In this paper, we focus on
the metadata contained in the popular MP4 video wrapper/container. We describe
our method for metadata extractor that uses the MP4's tree structure. Our
approach for analyzing the video metadata produces a more compact
representation. We will describe how we construct features from the metadata
and then use dimensionality reduction and nearest neighbor classification for
forensic analysis of a video file. Our approach allows one to visually inspect
the distribution of metadata features and make decisions. The experimental
results confirm that the performance of our approach surpasses other methods.
- Abstract(参考訳): ビデオコンテンツの操作の容易さと能力は、操作されたメディアの急速な普及につながった。
近年、ビデオ編集ツールの利用が大幅に増加し、写真のリアルな変更を容易に生成できるようになった。
このような操作は、ビデオファイルに埋め込まれたメタデータにトレースを残せる。
このメタデータ情報は、ビデオ操作、ビデオ録画装置のブランド、ビデオ編集ツールの種類、その他の重要な証拠を決定するために使用できる。
本稿では,MP4ビデオラッパー/コンテナに含まれるメタデータに焦点を当てる。
本稿では,MP4木構造を用いたメタデータ抽出手法について述べる。
ビデオメタデータを解析するためのアプローチは、よりコンパクトな表現を生み出す。
本稿では,メタデータから機能を構築する方法を説明し,ビデオファイルの法医学的解析に次元的縮小と近傍の分類を用いる。
このアプローチにより,メタデータ特徴の分布を視覚的に検査し,意思決定を行うことができる。
実験により,提案手法の性能が他の手法を上回っていることを確認した。
関連論文リスト
- PM-VIS+: High-Performance Video Instance Segmentation without Video Annotation [15.9587266448337]
ビデオインスタンスのセグメンテーションには、ビデオ内のオブジェクトを検出し、セグメンテーションし、追跡する必要がある。
本稿では,画像データセットを利用してビデオアノテーションを除去する手法を提案する。
論文 参考訳(メタデータ) (2024-06-28T05:22:39Z) - Authentication and integrity of smartphone videos through multimedia
container structure analysis [9.781421596580298]
本研究は,MP4,MOV,3GPフォーマットビデオに対する攻撃の可能性を検出する新しい手法を提案する。
この提案の目的は、ビデオの完全性を確認し、買収の源を識別し、オリジナルと操作されたビデオの区別を行うことである。
論文 参考訳(メタデータ) (2024-02-05T22:34:24Z) - Reasoning over the Behaviour of Objects in Video-Clips for Adverb-Type Recognition [54.938128496934695]
本稿では,ビデオクリップから抽出したオブジェクトの振る舞いを理由として,クリップの対応する副詞型を認識するための新しいフレームワークを提案する。
具体的には、生のビデオクリップから人間の解釈可能な物体の挙動を抽出する新しいパイプラインを提案する。
生のビデオクリップから抽出したオブジェクト-振る舞い-ファクトのデータセットを2つリリースする。
論文 参考訳(メタデータ) (2023-07-09T09:04:26Z) - VADER: Video Alignment Differencing and Retrieval [70.88247176534426]
VADERは、堅牢なビジュアル記述子と、チャンクされたビデオコンテンツに対するスケーラブルな検索を使用して、部分的なビデオフラグメントを候補ビデオにマッチし、調整する。
時空間コンパレータモジュールは、コンテンツ間の操作の領域を識別する。
論文 参考訳(メタデータ) (2023-03-23T11:50:44Z) - Video and Text Matching with Conditioned Embeddings [81.81028089100727]
本稿では,あるコーパスから与えられたビデオクリップにテキストをマッチングする方法と,その逆について述べる。
本研究では、クエリの関連情報を考慮し、データセットデータをエンコードする。
我々は、条件付き表現をビデオ誘導機械翻訳に転送し、VATEXの現在の結果を改善した。
論文 参考訳(メタデータ) (2021-10-21T17:31:50Z) - VPN: Video Provenance Network for Robust Content Attribution [72.12494245048504]
VPN - オンラインで共有されているビデオから出典情報を復元するコンテンツ属性手法を提案する。
完全長あるいは切り離されたビデオクエリを用いて,このようなビデオのマッチングに頑健な検索埋め込みを学習する。
一度ビデオクリップの信頼できるデータベースにマッチすると、そのクリップの出所に関する関連情報がユーザに提示される。
論文 参考訳(メタデータ) (2021-09-21T09:07:05Z) - A new Video Synopsis Based Approach Using Stereo Camera [0.5801044612920815]
物体に基づく教師なし学習を用いた新しい異常検出法を開発した。
この方法を用いて、映像データを画素として処理し、その結果をビデオセグメントとして生成する。
私たちが開発したモデルは、単眼カメラとデュアルカメラシステムで別々にテストされ、検証されている。
論文 参考訳(メタデータ) (2021-06-23T12:57:47Z) - Less is More: ClipBERT for Video-and-Language Learning via Sparse
Sampling [98.41300980759577]
ビデオと言語の学習に対する標準的なアプローチは、オフラインで抽出された高密度ビデオ機能から学習するニューラルネットワークを規定する。
本稿では,ビデオ・言語タスクに対して,手頃なエンドツーエンド学習を可能にする汎用フレームワークClipBERTを提案する。
6つのデータセットにおけるテキスト・ビデオ検索とビデオ質問応答の実験は、ClipBERTが既存の手法より優れていることを示した。
論文 参考訳(メタデータ) (2021-02-11T18:50:16Z) - Efficient video integrity analysis through container characterization [77.45740041478743]
本稿では,ビデオ操作に使用するソフトウェアをコンテナベースで識別する手法を提案する。
提案手法は効率的かつ効果的であり,その決定の簡易な説明も可能である。
プリストインを改ざんされたビデオと区別し、編集ソフトを分類することで97.6%の精度を達成している。
論文 参考訳(メタデータ) (2021-01-26T14:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。