論文の概要: An Overview of Recent Work in Media Forensics: Methods and Threats
- arxiv url: http://arxiv.org/abs/2204.12067v1
- Date: Tue, 26 Apr 2022 04:17:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 13:49:52.657054
- Title: An Overview of Recent Work in Media Forensics: Methods and Threats
- Title(参考訳): メディア・フォレンジスにおける最近の研究動向 : 方法と脅威
- Authors: Kratika Bhagtani, Amit Kumar Singh Yadav, Emily R. Bartusiak, Ziyue
Xiang, Ruiting Shao, Sriram Baireddy, Edward J. Delp
- Abstract要約: デジタルメディアの作成・修正に使用できる合成・操作技術について論じる。
オープンな問題を考慮し、今後の研究の方向性を提案する。
- 参考スコア(独自算出の注目度): 15.852421969506327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we review recent work in media forensics for digital images,
video, audio (specifically speech), and documents. For each data modality, we
discuss synthesis and manipulation techniques that can be used to create and
modify digital media. We then review technological advancements for detecting
and quantifying such manipulations. Finally, we consider open issues and
suggest directions for future research.
- Abstract(参考訳): 本稿では,デジタル画像,映像,音声(特に音声),文書のメディア・フォレンジスに関する最近の研究について概説する。
各データモダリティについて,デジタルメディアの作成と修正に使用できる合成および操作技術について述べる。
次に,このような操作を検出・定量化するための技術進歩について検討する。
最後に,オープンな課題を考察し,今後の研究の方向性を提案する。
関連論文リスト
- Instruction-Guided Editing Controls for Images and Multimedia: A Survey in LLM era [50.19334853510935]
命令ベースの編集の最近の進歩は、ユーザ意図と複雑な編集操作の間の橋渡しとして自然言語を用いて、視覚コンテンツとの直感的な対話を可能にしている。
我々は,エンターテイメントから教育に至るまで,様々な産業において強力なビジュアル編集を民主化することを目指している。
論文 参考訳(メタデータ) (2024-11-15T05:18:15Z) - Diffusion Model-Based Video Editing: A Survey [47.45047496559506]
本稿では,拡散モデルに基づくビデオ編集技術について概説する。
進化的軌跡を描写した映像編集手法を,コア技術の本質的な接続によって分類する。
本稿では,ポイントベース編集やポーズ誘導型ヒューマンビデオ編集など,新しい応用についても検討する。
論文 参考訳(メタデータ) (2024-06-26T04:58:39Z) - Recent Advances in Digital Image and Video Forensics, Anti-forensics and Counter Anti-forensics [0.0]
画像とビデオの鑑定は、最近、操作された画像やビデオの拡散により、注目を集めている。
本調査では,操作したデジタルメディアと生成メディアの両方をカバーする画像と映像の識別と偽造検出について検討する。
論文 参考訳(メタデータ) (2024-02-03T09:01:34Z) - Fighting Malicious Media Data: A Survey on Tampering Detection and
Deepfake Detection [115.83992775004043]
近年のディープラーニング、特に深層生成モデルの発展により、知覚的に説得力のある画像や動画を低コストで制作するための扉が開かれた。
本稿では,現在のメディアタンパリング検出手法を概観し,今後の研究の課題と動向について論じる。
論文 参考訳(メタデータ) (2022-12-12T02:54:08Z) - Comprehensive Dataset of Face Manipulations for Development and
Evaluation of Forensic Tools [0.6091702876917281]
我々は、デジタルメディアの真正性に対処し、分類するための新しいアプローチを開発する研究コミュニティを支援するために、編集された顔画像のデータセットを作成する。
データセットの目標は,次の課題に対処することである。(1) 与えられた画像の真正性(編集検出)を決定することは可能か?
我々の期待は、これらの課題にかかわる画像鑑定の最先端を改善するために、我々の準備された評価プロトコルが、研究者に役立ちます。
論文 参考訳(メタデータ) (2022-08-24T21:17:28Z) - Human-in-the-Loop Disinformation Detection: Stance, Sentiment, or
Something Else? [93.91375268580806]
政治とパンデミックは、機械学習対応の偽ニュース検出アルゴリズムの開発に十分な動機を与えている。
既存の文献は、主に完全自動化されたケースに焦点を当てているが、その結果得られた技術は、軍事応用に必要な様々なトピック、ソース、時間スケールに関する偽情報を確実に検出することはできない。
既に利用可能なアナリストを人間のループとして活用することにより、感情分析、アスペクトベースの感情分析、姿勢検出といった標準的な機械学習技術は、部分的に自動化された偽情報検出システムに使用するためのもっとも有効な方法となる。
論文 参考訳(メタデータ) (2021-11-09T13:30:34Z) - Technological Approaches to Detecting Online Disinformation and
Manipulation [0.0]
プロパガンダや偽情報をオンライン環境に移すことは、過去10年間にデジタル情報チャンネルがニュースソースとして急速に普及したという事実により可能である。
本章では, 計算機支援による偽情報検出手法の概要について述べる。
論文 参考訳(メタデータ) (2021-08-26T09:28:50Z) - TEACHTEXT: CrossModal Generalized Distillation for Text-Video Retrieval [103.85002875155551]
本研究では,大規模言語前訓練を利用した一般化蒸留法TeachTextを提案する。
提案手法をビデオ側モダリティに拡張し,テスト時に使用するモダリティの数を効果的に削減できることを示す。
提案手法は,いくつかのビデオ検索ベンチマークの精度を著しく向上させ,テスト時の計算オーバーヘッドを増加させない。
論文 参考訳(メタデータ) (2021-04-16T17:55:28Z) - A Survey of Deep Learning Approaches for OCR and Document Understanding [68.65995739708525]
我々は、英語で書かれた文書の文書理解のための様々な手法をレビューする。
文献に現れる方法論を集約し,この領域を探索する研究者の跳躍点として機能させる。
論文 参考訳(メタデータ) (2020-11-27T03:05:59Z) - Media Forensics and DeepFakes: an overview [12.333160116225445]
リアルメディアと合成メディアの境界は非常に薄くなっている。
ディープフェイクは選挙中に世論を操ったり、詐欺を犯したり、軽視したり、脅迫したりするのに使われる。
偽マルチメディアコンテンツを検出する自動化ツールが緊急に必要である。
論文 参考訳(メタデータ) (2020-01-18T00:13:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。