論文の概要: Amplifying The Uncanny
- arxiv url: http://arxiv.org/abs/2002.06890v3
- Date: Fri, 13 Nov 2020 13:18:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-31 12:44:57.187523
- Title: Amplifying The Uncanny
- Title(参考訳): アンカニーの増幅
- Authors: Terence Broad, Frederic Fol Leymarie, Mick Grierson
- Abstract要約: ディープニューラルネットワークは、リアルなディープフェイクを作るのに非常に適している。
Deepfakesは、実画像と偽画像の区別を学ぶアルゴリズムによって生成される。
本稿では,このプロセスの逆転による美的効果について検討し,その代わりに,偽物と予測される画像を生成するためにシステムを最適化する。
- 参考スコア(独自算出の注目度): 0.2062593640149624
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Deep neural networks have become remarkably good at producing realistic
deepfakes, images of people that (to the untrained eye) are indistinguishable
from real images. Deepfakes are produced by algorithms that learn to
distinguish between real and fake images and are optimised to generate samples
that the system deems realistic. This paper, and the resulting series of
artworks Being Foiled explore the aesthetic outcome of inverting this process,
instead optimising the system to generate images that it predicts as being
fake. This maximises the unlikelihood of the data and in turn, amplifies the
uncanny nature of these machine hallucinations.
- Abstract(参考訳): 深層ニューラルネットワークは、現実的なディープフェイクを作り出すのに著しく長けている。
Deepfakesは、本物と偽の画像を区別するアルゴリズムで作られ、システムが現実とみなすサンプルを生成するために最適化されている。
本稿では,このプロセスの逆転による美的効果を探索し,その代わりに,偽物と予測される画像を生成するためにシステムを最適化する。
これはデータの相違を最大化し、結果的にこれらの機械幻覚の不気味な性質を増幅する。
関連論文リスト
- Solutions to Deepfakes: Can Camera Hardware, Cryptography, and Deep Learning Verify Real Images? [51.3344199560726]
信頼性の高い合成データから実際のデータを分離する手法を確立することが不可欠である。
この文書は、どの画像が本物かを検証するために使用できる検出と暗号に関する既知の戦略を提示することを目的としている。
論文 参考訳(メタデータ) (2024-07-04T22:01:21Z) - Importance of realism in procedurally-generated synthetic images for deep learning: case studies in maize and canola [1.7532822703595772]
視覚的に現実的なシミュレーションを生成するために、植物の手続きモデルを作成することができる。
これらの合成画像は、表現型タスクのためのトレーニングニューラルネットワークにおいて、実際の画像を増強または完全に置き換えることができる。
本稿では,トウモロコシとカノラの訓練に使用される実画像と合成画像の量を体系的に変化させる。
論文 参考訳(メタデータ) (2024-04-08T01:08:41Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - Inverting Generative Adversarial Renderer for Face Reconstruction [58.45125455811038]
本稿では,GAR(Generative Adversa Renderer)について紹介する。
GARは、グラフィックルールに頼るのではなく、複雑な現実世界のイメージをモデル化することを学ぶ。
本手法は,複数顔再構成における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-06T04:16:06Z) - Identifying Invariant Texture Violation for Robust Deepfake Detection [17.306386179823576]
Invariant Texture Learning frameworkは,低画質で公開されたデータセットにのみアクセスすることができる。
本手法は, 被写体から転写したテクスチャによって, 被写体表面の微視的顔のテクスチャが必然的に侵害されることを前提とした。
論文 参考訳(メタデータ) (2020-12-19T03:02:15Z) - Fighting Deepfake by Exposing the Convolutional Traces on Images [0.0]
FACEAPPのようなモバイルアプリは、最も高度なGAN(Generative Adversarial Networks)を使用して、人間の顔写真に極端な変換を生成する。
この種のメディアオブジェクトはDeepfakeという名前を取って、マルチメディアの法医学分野における新たな課題であるDeepfake検出課題を提起した。
本稿では,画像からディープフェイク指紋を抽出する手法を提案する。
論文 参考訳(メタデータ) (2020-08-07T08:49:23Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z) - Deep CG2Real: Synthetic-to-Real Translation via Image Disentanglement [78.58603635621591]
画像空間における未ペアの合成-現実翻訳ネットワークの訓練は、厳しい制約下にある。
画像の非交叉シェーディング層とアルベド層に作用する半教師付きアプローチを提案する。
私たちの2段階のパイプラインはまず、物理ベースのレンダリングをターゲットとして、教師付き方法で正確なシェーディングを予測することを学習します。
論文 参考訳(メタデータ) (2020-03-27T21:45:41Z) - Learning Inverse Rendering of Faces from Real-world Videos [52.313931830408386]
既存の方法は、顔画像を3つの構成要素(アルベド、ノーマル、照明)に分解する。
本稿では,アルベドと正常の整合性の仮定に基づいて,我々のモデルを実顔ビデオでトレーニングするための弱い教師付きトレーニング手法を提案する。
私たちのネットワークは、実データと合成データの両方で訓練されています。
論文 参考訳(メタデータ) (2020-03-26T17:26:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。