論文の概要: FrameProv: Towards End-To-End Video Provenance
- arxiv url: http://arxiv.org/abs/2005.09199v1
- Date: Tue, 19 May 2020 03:52:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 08:22:41.316764
- Title: FrameProv: Towards End-To-End Video Provenance
- Title(参考訳): FrameProv: エンド・ツー・エンドのビデオ体験を目指す
- Authors: Mansoor Ahmed-Rengers
- Abstract要約: ビデオ伝送チェーンに信頼性の高いコンポーネントを埋め込むことで、最も過酷な操作を緩和することを目的とした長期的なプロジェクトを紹介します。
本稿では、新しいデータ構造、ビデオ編集仕様言語、そしてエンドツーエンドのビデオの証明を提供するインフラを提供する。
私は、このアイデアをメインストリームに導入する最善の方法について、ジャーナリストやビデオエディターと話し合っています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video feeds are often deliberately used as evidence, as in the case of CCTV
footage; but more often than not, the existence of footage of a supposed event
is perceived as proof of fact in the eyes of the public at large. This reliance
represents a societal vulnerability given the existence of easy-to-use editing
tools and means to fabricate entire video feeds using machine learning. And, as
the recent barrage of fake news and fake porn videos have shown, this isn't
merely an academic concern, it is actively been exploited. I posit that this
exploitation is only going to get more insidious. In this position paper, I
introduce a long term project that aims to mitigate some of the most egregious
forms of manipulation by embedding trustworthy components in the video
transmission chain. Unlike earlier works, I am not aiming to do tamper
detection or other forms of forensics -- approaches I think are bound to fail
in the face of the reality of necessary editing and compression -- instead, the
aim here is to provide a way for the video publisher to prove the integrity of
the video feed as well as make explicit any edits they may have performed. To
do this, I present a novel data structure, a video-edit specification language
and supporting infrastructure that provides end-to-end video provenance, from
the camera sensor to the viewer. I have implemented a prototype of this system
and am in talks with journalists and video editors to discuss the best ways
forward with introducing this idea to the mainstream.
- Abstract(参考訳): ビデオフィードは、CCTVの映像のように、しばしば故意に証拠として使用されるが、多くの場合、想定される出来事の映像の存在は、一般大衆の目には事実の証拠として認識される。
この信頼性は、使いやすい編集ツールが存在することによる社会的な脆弱性であり、機械学習を使ってビデオフィード全体を構築する手段である。
そして、最近のフェイクニュースやフェイクポルノビデオの騒動が示すように、これは単なる学術的な問題ではないため、積極的に悪用されている。
私はこの搾取が益々不愉快になるだけだと仮定する。
本稿では,映像伝送チェーンに信頼性の高いコンポーネントを埋め込むことにより,操作の最も過酷な形態を緩和することを目的とした長期プロジェクトを紹介する。
以前の作品とは異なり、私はターンパー検出や他の形態の法医学 -- 必要な編集と圧縮の現実に直面して失敗しなくてはならないアプローチ -- を目標とせず、代わりに、ビデオパブリッシャがビデオフィードの完全性を証明し、実行したであろう編集を明確にする手段を提供することを目標としている。
そこで本稿では,カメラセンサからビューアまで,新たなデータ構造,ビデオ編集仕様言語,およびエンドツーエンドのビデオプロファイナンスを提供するインフラストラクチャについて紹介する。
私はこのシステムのプロトタイプを実践し、このアイデアを主流に導入する最善の方法について議論するため、ジャーナリストやビデオ編集者と協議中です。
関連論文リスト
- Authentication and integrity of smartphone videos through multimedia
container structure analysis [9.781421596580298]
本研究は,MP4,MOV,3GPフォーマットビデオに対する攻撃の可能性を検出する新しい手法を提案する。
この提案の目的は、ビデオの完全性を確認し、買収の源を識別し、オリジナルと操作されたビデオの区別を行うことである。
論文 参考訳(メタデータ) (2024-02-05T22:34:24Z) - Detours for Navigating Instructional Videos [58.1645668396789]
We propose VidDetours, a video-lang approach that learn to retrieve the target temporal segments from a large repository of how-to's。
本稿では,ビデオ検索と質問応答の最良の方法に比べて,モデルが大幅に改善し,リコール率が35%を超えることを示す。
論文 参考訳(メタデータ) (2024-01-03T16:38:56Z) - VIDiff: Translating Videos via Multi-Modal Instructions with Diffusion
Models [96.55004961251889]
Video Instruction Diffusion (VIDiff) は、幅広いビデオタスク用に設計された統合基盤モデルである。
我々のモデルは,ユーザの指示に基づいて,所望の結果を数秒以内に編集し,翻訳することができる。
様々な入力ビデオや書き起こしに対して,質的かつ定量的に,説得力のある生成結果を提供する。
論文 参考訳(メタデータ) (2023-11-30T18:59:52Z) - Ground-A-Video: Zero-shot Grounded Video Editing using Text-to-image
Diffusion Models [65.268245109828]
Ground-A-Videoは、マルチ属性ビデオ編集のためのビデオからビデオへの変換フレームワークである。
トレーニング不要な方法で、時間的に一貫した入力ビデオの編集を可能にする。
実験と応用により、Ground-A-Videoのゼロショットキャパシティは、編集精度とフレームの整合性の観点から、他のベースライン手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-10-02T11:28:37Z) - Make-A-Protagonist: Generic Video Editing with An Ensemble of Experts [116.05656635044357]
我々はMake-A-Protagonistと呼ばれる一般的なビデオ編集フレームワークを提案する。
具体的には、複数の専門家を利用してソース映像を解析し、視覚的・テキスト的手がかりをターゲットとし、視覚的・テキスト的映像生成モデルを提案する。
その結果,Make-A-Protagonistの多種多様な編集能力を実証した。
論文 参考訳(メタデータ) (2023-05-15T17:59:03Z) - Zero-Shot Video Editing Using Off-The-Shelf Image Diffusion Models [68.31777975873742]
ビデオ編集の最近の試みは、トレーニングに大量のテキスト・ビデオデータと計算資源を必要とする。
我々は、ゼロショットビデオ編集のためのシンプルで効果的な方法であるvid2vid-zeroを提案する。
実験と分析は、現実世界のビデオの属性、主題、場所などの編集において有望な結果を示す。
論文 参考訳(メタデータ) (2023-03-30T17:59:25Z) - Digital Image Forensics using Deep Learning [0.0]
本プロジェクトの目的は、画像に内在的に残されている情報のトレースを用いて、どのカメラが画像をキャプチャしたかを特定するアルゴリズムを構築することである。
この問題を解決することは、刑事裁判や民事裁判、さらにはニュース報道で使われた証拠の検証に大きな影響を与えるだろう。
論文 参考訳(メタデータ) (2022-10-14T02:27:34Z) - Efficient video integrity analysis through container characterization [77.45740041478743]
本稿では,ビデオ操作に使用するソフトウェアをコンテナベースで識別する手法を提案する。
提案手法は効率的かつ効果的であり,その決定の簡易な説明も可能である。
プリストインを改ざんされたビデオと区別し、編集ソフトを分類することで97.6%の精度を達成している。
論文 参考訳(メタデータ) (2021-01-26T14:13:39Z) - Video Camera Identification from Sensor Pattern Noise with a Constrained
ConvNet [7.229968041355052]
本稿では,ビデオフレームから抽出したカメラ固有のノイズパターンに基づいて,映像のソースカメラを識別する手法を提案する。
本システムは,映像フレームを個別に分類し,多数決によりソースカメラの識別を行うように設計されている。
この研究は、子どもの性的虐待に対する法医学に焦点を当てたEUが支援するプロジェクト4NSEEKの一部です。
論文 参考訳(メタデータ) (2020-12-11T12:17:30Z) - Cost Sensitive Optimization of Deepfake Detector [6.427063076424032]
我々は、ディープフェイク検出タスクは、ユーザーが毎日大量のビデオを視聴するスクリーニングタスクとみなすべきであると論じている。
アップロードされたビデオのほんの一部だけがディープフェイクであることは明らかなので、検出性能をコストに敏感な方法で測定する必要がある。
論文 参考訳(メタデータ) (2020-12-08T04:06:02Z) - Media Forensics and DeepFakes: an overview [12.333160116225445]
リアルメディアと合成メディアの境界は非常に薄くなっている。
ディープフェイクは選挙中に世論を操ったり、詐欺を犯したり、軽視したり、脅迫したりするのに使われる。
偽マルチメディアコンテンツを検出する自動化ツールが緊急に必要である。
論文 参考訳(メタデータ) (2020-01-18T00:13:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。