論文の概要: Can Generative Models Actually Forge Realistic Identity Documents?
- arxiv url: http://arxiv.org/abs/2601.00829v1
- Date: Thu, 25 Dec 2025 00:56:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-11 18:48:17.532302
- Title: Can Generative Models Actually Forge Realistic Identity Documents?
- Title(参考訳): 生成モデルは実際に現実的なアイデンティティドキュメントを作成できるか?
- Authors: Alexander Vinogradov,
- Abstract要約: オープンソースでパブリックアクセス可能な生成モデルは、IDドキュメントの偽造物を生成することができる。
法定レベルの認証を達成するための、生成的アイデンティティドキュメントの深層化のリスクは過大評価される可能性がある。
- 参考スコア(独自算出の注目度): 51.56484100374058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative image models have recently shown significant progress in image realism, leading to public concerns about their potential misuse for document forgery. This paper explores whether contemporary open-source and publicly accessible diffusion-based generative models can produce identity document forgeries that could realistically bypass human or automated verification systems. We evaluate text-to-image and image-to-image generation pipelines using multiple publicly available generative model families, including Stable Diffusion, Qwen, Flux, Nano-Banana, and others. The findings indicate that while current generative models can simulate surface-level document aesthetics, they fail to reproduce structural and forensic authenticity. Consequently, the risk of generative identity document deepfakes achieving forensic-level authenticity may be overestimated, underscoring the value of collaboration between machine learning practitioners and document-forensics experts in realistic risk assessment.
- Abstract(参考訳): 生成画像モデルは、最近、画像リアリズムの著しい進歩を示しており、文書偽造の潜在的な誤用に関する世間の懸念につながっている。
本稿では,現代オープンソースおよび普及型生成モデルが,人間や自動検証システムを現実的に回避可能なID文書偽造を生成できるかどうかを考察する。
我々は、安定拡散、Qwen、Flux、Nano-Bananaなど、公開されている複数の生成モデルファミリを用いて、テキスト・ツー・イメージと画像・画像生成パイプラインの評価を行った。
その結果,現在の生成モデルは表面レベルの文書美学をシミュレートできるが,構造的および法医学的信頼性の再現には至らなかったことが示唆された。
結果として、法学レベルの認証を達成するために、生成的アイデンティティドキュメントのディープフェイクのリスクは過大評価され、現実的なリスクアセスメントにおいて、機械学習実践者と文書法学の専門家とのコラボレーションの価値が強調される。
関連論文リスト
- ID-Booth: Identity-consistent Face Generation with Diffusion Models [27.46650231581887]
我々はID-Boothと呼ばれる新しい生成拡散に基づくフレームワークを提案する。
このフレームワークは、事前訓練された拡散モデルの合成能力を保ちながら、アイデンティティ一貫性のある画像生成を可能にする。
本手法は、画像の多様性を向上しつつ、競合する手法よりもアイデンティティ間の一貫性とアイデンティティ間の分離性を向上する。
論文 参考訳(メタデータ) (2025-04-10T02:20:18Z) - FakeScope: Large Multimodal Expert Model for Transparent AI-Generated Image Forensics [66.14786900470158]
本稿では,AIによる画像鑑定に適した専門家マルチモーダルモデル(LMM)であるFakeScopeを提案する。
FakeScopeはAI合成画像を高精度に識別し、リッチで解釈可能なクエリ駆動の法医学的な洞察を提供する。
FakeScopeは、クローズドエンドとオープンエンドの両方の法医学的シナリオで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-03-31T16:12:48Z) - KITTEN: A Knowledge-Intensive Evaluation of Image Generation on Visual Entities [93.74881034001312]
KITTENはKnowledge-InTensiveイメージジェネラティオンのベンチマークである。
我々は最新のテキスト・画像モデルと検索強化モデルについて体系的な研究を行う。
分析によると、高度なテキスト・ツー・イメージモデルでさえ、エンティティの正確な視覚的詳細を生成できない。
論文 参考訳(メタデータ) (2024-10-15T17:50:37Z) - How to Trace Latent Generative Model Generated Images without Artificial Watermark? [88.04880564539836]
潜在生成モデルによって生成された画像に関する潜在的な誤用に関する懸念が持ち上がっている。
検査されたモデルの生成された画像をトレースするために,レイトタントトラッカーと呼ばれる潜時反転に基づく手法を提案する。
提案手法は,検査したモデルと他の画像から生成された画像とを高精度かつ効率的に識別できることを示す。
論文 参考訳(メタデータ) (2024-05-22T05:33:47Z) - Unveiling the Truth: Exploring Human Gaze Patterns in Fake Images [34.02058539403381]
我々は、人間の意味的知識を活用して、偽画像検出のフレームワークに含まれる可能性を調べる。
予備的な統計的分析により、人間が本物の画像や変化した画像をどのように知覚するかの特徴的なパターンを探索する。
論文 参考訳(メタデータ) (2024-03-13T19:56:30Z) - Text-image guided Diffusion Model for generating Deepfake celebrity
interactions [50.37578424163951]
拡散モデルは近年、非常にリアルなビジュアルコンテンツ生成を実証している。
本稿では,その点において新しい手法を考案し,検討する。
提案手法により, 現実感を脅かすことなく, 偽の視覚コンテンツを作成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-26T08:24:37Z) - Qualitative Failures of Image Generation Models and Their Application in Detecting Deepfakes [43.37813040320147]
生成した画像の品質と、現実世界に見られるものとの間には、ギャップが残っている。
これらの失敗を理解することで、これらのモデルに改善が必要な領域を特定することができます。
今日の社会におけるディープフェイクの流行は深刻な懸念である。
論文 参考訳(メタデータ) (2023-03-29T15:26:44Z) - Responsible Disclosure of Generative Models Using Scalable
Fingerprinting [70.81987741132451]
深層生成モデルは質的に新しいパフォーマンスレベルを達成した。
この技術がスプーフセンサーに誤用され、ディープフェイクを発生させ、大規模な誤情報を可能にするという懸念がある。
最先端のジェネレーションモデルを責任を持って公開することで、研究者や企業がモデルに指紋を刻むことができます。
論文 参考訳(メタデータ) (2020-12-16T03:51:54Z) - On Attribution of Deepfakes [25.334701225923517]
生成的敵ネットワークは メディアを効果的に 合成し 変更できるようにしました
現在、悪意のある個人は、これらの機械生成メディア(ディープフェイク)を使って、社会的言論を操っている。
そこで本研究では,各生成モデルのエントロピー源を最適化し,ディープフェイクをモデルの一つに属性付ける手法を提案する。
論文 参考訳(メタデータ) (2020-08-20T20:25:18Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。