論文の概要: Shadows Don't Lie and Lines Can't Bend! Generative Models don't know Projective Geometry...for now
- arxiv url: http://arxiv.org/abs/2311.17138v2
- Date: Thu, 30 May 2024 22:22:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-03 20:21:48.318894
- Title: Shadows Don't Lie and Lines Can't Bend! Generative Models don't know Projective Geometry...for now
- Title(参考訳): 影は嘘をつくな! 生成モデルは射影幾何学を知らない...今のところ
- Authors: Ayush Sarkar, Hanlin Mai, Amitabh Mahapatra, Svetlana Lazebnik, D. A. Forsyth, Anand Bhattad,
- Abstract要約: 生成モデルは驚くほどリアルなイメージを作り出すことができる。
生成した画像の幾何学的特徴が実際の画像と異なることを示す。
次に, 幾何特性にのみ注目する分類器によって, 予め決められた画像が確実に識別可能であることを示す。
- 参考スコア(独自算出の注目度): 8.533034129949018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative models can produce impressively realistic images. This paper demonstrates that generated images have geometric features different from those of real images. We build a set of collections of generated images, prequalified to fool simple, signal-based classifiers into believing they are real. We then show that prequalified generated images can be identified reliably by classifiers that only look at geometric properties. We use three such classifiers. All three classifiers are denied access to image pixels, and look only at derived geometric features. The first classifier looks at the perspective field of the image, the second looks at lines detected in the image, and the third looks at relations between detected objects and shadows. Our procedure detects generated images more reliably than SOTA local signal based detectors, for images from a number of distinct generators. Saliency maps suggest that the classifiers can identify geometric problems reliably. We conclude that current generators cannot reliably reproduce geometric properties of real images.
- Abstract(参考訳): 生成モデルは驚くほどリアルなイメージを作り出すことができる。
本稿では,生成した画像が実画像と異なる幾何学的特徴を持つことを示す。
生成した画像の集合を構築し、単純な信号ベースの分類器を騙して、それが本物であると信じ込ませる。
次に, 幾何特性にのみ注目する分類器によって, 予め決められた画像が確実に識別可能であることを示す。
私たちはそのような分類器を3つ使います。
3つの分類器は画像画素へのアクセスを拒否され、導出した幾何学的特徴のみを見る。
第1の分類器は画像のパースペクティブフィールド、第2の分類器は画像内で検出された線、第3の分類器は検出された物体と影の関係を調べる。
本手法は、複数の異なる発電機の画像に対して、SOTAローカル信号ベース検出器よりも確実に生成された画像を検出する。
正則写像は、分類器が幾何的問題を確実に特定できることを示唆する。
現状のジェネレータは実画像の幾何学的特性を確実に再現できないと結論付けている。
関連論文リスト
- How to Trace Latent Generative Model Generated Images without Artificial Watermark? [88.04880564539836]
潜在生成モデルによって生成された画像に関する潜在的な誤用に関する懸念が持ち上がっている。
検査されたモデルの生成された画像をトレースするために,レイトタントトラッカーと呼ばれる潜時反転に基づく手法を提案する。
提案手法は,検査したモデルと他の画像から生成された画像とを高精度かつ効率的に識別できることを示す。
論文 参考訳(メタデータ) (2024-05-22T05:33:47Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - Detecting Images Generated by Diffusers [12.986394431694206]
MSCOCOとWikimediaのデータセットのキャプションから生成された画像は、安定拡散とGLIDEの2つの最先端モデルを用いて検討する。
実験の結果, 単純なマルチ層パーセプトロンを用いて生成した画像を検出することができることがわかった。
関連したテキスト情報を画像に組み込むと、検出結果が大幅に改善されることは滅多にない。
論文 参考訳(メタデータ) (2023-03-09T14:14:29Z) - Towards Universal Fake Image Detectors that Generalize Across Generative Models [36.18427140427858]
実Vsフェイク分類のためのディープネットワークを訓練する既存のパラダイムは、新しい世代生成モデルから偽画像を検出するのに失敗していることを示す。
実写画像と実写画像の区別を明示的に訓練されていない特徴空間を用いて,学習せずに実写映像の分類を行うことを提案する。
論文 参考訳(メタデータ) (2023-02-20T18:59:04Z) - Geometric Representation Learning for Document Image Rectification [137.75133384124976]
本稿では,明示的な幾何学的表現を導入して文書画像の修正を行うDocGeoNetを提案する。
私たちのモチベーションは、歪んだ文書画像の修正に3次元形状がグローバルなアンウォープ手段を提供するという洞察から生まれます。
実験は、我々のフレームワークの有効性を示し、我々のフレームワークが最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-15T01:57:40Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - ShaRF: Shape-conditioned Radiance Fields from a Single View [54.39347002226309]
本稿では,単一の画像のみのオブジェクトの神経シーン表現を推定する手法を提案する。
この手法の核心は,対象物の幾何学的足場の推定である。
合成画像と実画像の両方において,提案手法の有効性を示す実験を行った。
論文 参考訳(メタデータ) (2021-02-17T16:40:28Z) - Deformable Generator Networks: Unsupervised Disentanglement of
Appearance and Geometry [93.02523642523477]
本稿では、画像データと映像データの両方の外観と幾何学的情報を切り離す変形可能なジェネレータモデルを提案する。
外見生成ネットワークは、色、照明、アイデンティティ、カテゴリーを含む外見に関する情報をモデル化する。
幾何学的ジェネレータは、変形場を生成することにより、回転やストレッチなどの幾何学的ワーピングを行う。
論文 参考訳(メタデータ) (2018-06-16T21:17:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。