論文の概要: Unraveling Hidden Representations: A Multi-Modal Layer Analysis for Better Synthetic Content Forensics
- arxiv url: http://arxiv.org/abs/2508.00784v1
- Date: Fri, 01 Aug 2025 17:07:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.96728
- Title: Unraveling Hidden Representations: A Multi-Modal Layer Analysis for Better Synthetic Content Forensics
- Title(参考訳): 隠れ表現を解き放つ: より良い合成コンテンツ鑑定のための多モード層解析
- Authors: Tom Or, Omri Azencot,
- Abstract要約: 悪意のあるユーザーは 合成メディアを利用して 偽情報を広め ディープフェイクを広める
堅牢で安定した偽の検知器の必要性は、特に新しい生成モデルが毎日現れるとき、強く迫っている。
本稿では,大規模な事前学習型マルチモーダルモデルを用いて生成物を検知する手法を提案する。
- 参考スコア(独自算出の注目度): 4.910937238451485
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative models achieve remarkable results in multiple data domains, including images and texts, among other examples. Unfortunately, malicious users exploit synthetic media for spreading misinformation and disseminating deepfakes. Consequently, the need for robust and stable fake detectors is pressing, especially when new generative models appear everyday. While the majority of existing work train classifiers that discriminate between real and fake information, such tools typically generalize only within the same family of generators and data modalities, yielding poor results on other generative classes and data domains. Towards a universal classifier, we propose the use of large pre-trained multi-modal models for the detection of generative content. Effectively, we show that the latent code of these models naturally captures information discriminating real from fake. Building on this observation, we demonstrate that linear classifiers trained on these features can achieve state-of-the-art results across various modalities, while remaining computationally efficient, fast to train, and effective even in few-shot settings. Our work primarily focuses on fake detection in audio and images, achieving performance that surpasses or matches that of strong baseline methods.
- Abstract(参考訳): 生成モデルは、画像やテキストなど、複数のデータ領域で顕著な結果をもたらす。
残念ながら、悪意のあるユーザーは、偽情報の拡散やディープフェイクの拡散に合成メディアを利用する。
結果として、堅牢で安定した偽の検知器の必要性は、特に新しい生成モデルが毎日現れるとき、押し寄せている。
実情報と偽情報を区別する既存の作業列車分類器の大多数では、そのようなツールは一般的に、ジェネレータとデータモダリティの同じファミリー内でのみ一般化され、他の生成クラスやデータドメインに対して不十分な結果をもたらす。
普遍的分類器に向けて、生成内容の検出に大規模な事前学習型マルチモーダルモデルを適用することを提案する。
効果的に、これらのモデルの潜在コードは、偽物と実物とを識別する情報を自然にキャプチャすることを示す。
この観測に基づいて,これらの特徴を訓練した線形分類器は,計算効率が良く,訓練も速く,数ショット設定でも有効でありながら,様々なモダリティにまたがる最先端の結果が得られることを示した。
我々の研究は、主に音声と画像の偽検出に焦点を合わせ、強力なベースライン手法に匹敵する、あるいは一致するパフォーマンスを達成する。
関連論文リスト
- Seeing What Matters: Generalizable AI-generated Video Detection with Forensic-Oriented Augmentation [18.402668470092294]
合成ビデオ生成は、実際のものとはほとんど区別できない、非常にリアルな高解像度ビデオを生成することができる。
いくつかのビデオ法医学検出器が最近提案されているが、しばしば一般化が不十分である。
本稿では,ウェーブレット分解に基づく新たなデータ拡張戦略を導入し,より関連する法医学的手がかりを活用するために,特定の周波数関連帯域を置き換える。
本手法は最先端検出器よりも精度が向上し, 非常に最近の生成モデルにおいても優れた結果が得られる。
論文 参考訳(メタデータ) (2025-06-20T07:36:59Z) - Do DeepFake Attribution Models Generalize? [8.198174674722067]
近年のDeepFake生成は,オープンソースツールの普及とともに,合成メディア作成の障壁を大幅に減らした。
本研究では、最先端の5つのバックボーンモデルを活用し、6つのDeepFakeデータセットにわたる広範な実験を行う。
その結果,バイナリモデルでは一般化能力が向上する一方で,大きなモデル,コントラスト手法,データ品質が向上し,帰属モデルの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2025-05-22T13:49:05Z) - A Self-Learning Multimodal Approach for Fake News Detection [35.98977478616019]
偽ニュース分類のための自己学習型マルチモーダルモデルを提案する。
このモデルは、ラベル付きデータを必要としない機能抽出のための堅牢な手法であるコントラスト学習を利用する。
公開データセットを用いた実験結果から,提案モデルがいくつかの最先端の分類手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-12-08T07:41:44Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Training-Free Deepfake Voice Recognition by Leveraging Large-Scale Pre-Trained Models [52.04189118767758]
一般化は、現在のオーディオディープフェイク検出器の主な問題である。
本稿では,オーディオディープフェイク検出のための大規模事前学習モデルの可能性について検討する。
論文 参考訳(メタデータ) (2024-05-03T15:27:11Z) - Data-Independent Operator: A Training-Free Artifact Representation
Extractor for Generalizable Deepfake Detection [105.9932053078449]
本研究では,より一般的な人工物表現を捉えるのに,小型かつトレーニング不要なフィルタが十分であることを示す。
トレーニングソースとテストソースの両方に不偏があるため、未確認ソースに対して魅力的な改善を実現するために、Data-Independent Operator (DIO)と定義する。
我々の検出器は13.3%の大幅な改善を実現し、新しい最先端の性能を確立した。
論文 参考訳(メタデータ) (2024-03-11T15:22:28Z) - Learning Defect Prediction from Unrealistic Data [57.53586547895278]
事前訓練されたコードのモデルは、コード理解と生成タスクに人気がある。
このようなモデルは大きい傾向があり、訓練データの総量を必要とする。
人工的に注入されたバグのある関数など、はるかに大きくてもより現実的なデータセットを持つモデルをトレーニングすることが一般的になった。
このようなデータで訓練されたモデルは、実際のプログラムでは性能が劣りながら、同様のデータでのみうまく機能する傾向にある。
論文 参考訳(メタデータ) (2023-11-02T01:51:43Z) - Convolutional autoencoder-based multimodal one-class classification [80.52334952912808]
1クラス分類は、単一のクラスからのデータを用いた学習のアプローチを指す。
マルチモーダルデータに適した深層学習一クラス分類法を提案する。
論文 参考訳(メタデータ) (2023-09-25T12:31:18Z) - Leaving Reality to Imagination: Robust Classification via Generated
Datasets [24.411444438920988]
近年のロバスト性に関する研究では、テストセットと同様のデータセットでトレーニングされたニューラルイメージ分類器間での顕著なパフォーマンスギャップが明らかになった。
生成したデータセットは、画像分類器の自然な堅牢性にどのように影響するのか?
生成したデータで強化された実データに基づいて訓練された画像ネット分類器は、標準トレーニングよりも精度が高く、効果的に頑健であることがわかった。
論文 参考訳(メタデータ) (2023-02-05T22:49:33Z) - Robust Task-Oriented Dialogue Generation with Contrastive Pre-training
and Adversarial Filtering [17.7709632238066]
データアーティファクトは機械学習モデルにインセンティブを与え、非伝達可能な一般化を学ぶ。
我々は、MultiWOZのような一般的なデータセットがそのようなデータアーティファクトを含んでいるかどうかを検討する。
本稿では,これらの手法を無視し,一般化可能なパターンを学習することをモデルに推奨する,対照的な学習ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-20T03:13:02Z) - Laplacian Denoising Autoencoder [114.21219514831343]
本稿では,新しいタイプの自動符号化器を用いてデータ表現を学習することを提案する。
勾配領域における潜伏クリーンデータを破損させて雑音入力データを生成する。
いくつかのビジュアルベンチマークの実験では、提案されたアプローチでより良い表現が学べることが示されている。
論文 参考訳(メタデータ) (2020-03-30T16:52:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。