論文の概要: On the Horizon: Interactive and Compositional Deepfakes
- arxiv url: http://arxiv.org/abs/2209.01714v1
- Date: Mon, 5 Sep 2022 01:08:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 12:52:24.370990
- Title: On the Horizon: Interactive and Compositional Deepfakes
- Title(参考訳): 水平:インタラクティブで構成的なディープフェイク
- Authors: Eric Horvitz
- Abstract要約: インタラクティブで構成的なディープフェイクは、私たちを先史時代の世界に近づけることを脅かす。
緩和がなければ、インタラクティブで構成的なディープフェイクは、私たちをポストエピステミックの世界に近づけることを脅かします。
- 参考スコア(独自算出の注目度): 26.32590947516587
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Over a five-year period, computing methods for generating high-fidelity,
fictional depictions of people and events moved from exotic demonstrations by
computer science research teams into ongoing use as a tool of disinformation.
The methods, referred to with the portmanteau of "deepfakes," have been used to
create compelling audiovisual content. Here, I share challenges ahead with
malevolent uses of two classes of deepfakes that we can expect to come into
practice with costly implications for society: interactive and compositional
deepfakes. Interactive deepfakes have the capability to impersonate people with
realistic interactive behaviors, taking advantage of advances in multimodal
interaction. Compositional deepfakes leverage synthetic content in larger
disinformation plans that integrate sets of deepfakes over time with observed,
expected, and engineered world events to create persuasive synthetic histories.
Synthetic histories can be constructed manually but may one day be guided by
adversarial generative explanation (AGE) techniques. In the absence of
mitigations, interactive and compositional deepfakes threaten to move us closer
to a post-epistemic world, where fact cannot be distinguished from fiction. I
shall describe interactive and compositional deepfakes and reflect about
cautions and potential mitigations to defend against them.
- Abstract(参考訳): 5年間にわたって、コンピュータサイエンス研究チームによるエキゾチックなデモンストレーションから、偽情報のツールとしての使用へと、高忠実で架空の人物や出来事の描写を生成するための計算方法が移行した。
ディープフェイク(deepfakes)のポートマントー(Portmanteau)と呼ばれる手法は、魅力的なオーディオヴィジュアルコンテンツを作成するために使われてきた。
ここで、私は、社会にとってコストのかかる影響を伴う2種類のディープフェイク、すなわちインタラクティブとコンポジションのディープフェイク(deepfakes)の有望な使用に対する課題を共有します。
インタラクティブなディープフェイクは、マルチモーダルインタラクションの進歩を生かして、現実的なインタラクティブな振る舞いを持つ人々をまねる能力を持っている。
構成的ディープフェイクは、観察され、予測され、設計された世界の出来事と時間をかけて統合し、説得力のある合成ヒストリを作成する、より大きな偽情報プランで合成コンテンツを活用する。
合成ヒストリーは手動で構築できるが、いつの日か逆生成的説明(age)技術によって誘導されることがある。
緩和がなければ、インタラクティブで構成的なディープフェイクは、事実がフィクションと区別できないポストエステミックな世界へと私たちを近づけることを脅かす。
対話的かつ構成的なディープフェイクについて述べ、それらに対する警戒及び潜在的な緩和について考察する。
関連論文リスト
- Twisting Lids Off with Two Hands [88.20584085182857]
深層強化学習を用いたシミュレーションで訓練された政策は,実世界へ効果的に移行可能であることを示す。
我々の研究は、深層強化学習とsim-to-realトランスファーが相まって、前例のない複雑さの操作問題に対処する上で有望なアプローチであることを示す証拠となる。
論文 参考訳(メタデータ) (2024-03-04T18:59:30Z) - Text-image guided Diffusion Model for generating Deepfake celebrity
interactions [50.37578424163951]
拡散モデルは近年、非常にリアルなビジュアルコンテンツ生成を実証している。
本稿では,その点において新しい手法を考案し,検討する。
提案手法により, 現実感を脅かすことなく, 偽の視覚コンテンツを作成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-26T08:24:37Z) - Towards Understanding of Deepfake Videos in the Wild [17.76886643741705]
これまでに収集された最大かつ最も多様な深海深海深度データセット(RWDF-23)について紹介する。
データセットの範囲を以前の研究を超えて拡大することで、現実世界のディープフェイクコンテンツの範囲を広げることができます。
また、創造者、操作戦略、目的、実世界のコンテンツ制作方法など、ディープフェイクの様々な側面を包括的に分析する。
論文 参考訳(メタデータ) (2023-09-05T03:16:38Z) - NPVForensics: Jointing Non-critical Phonemes and Visemes for Deepfake
Detection [50.33525966541906]
既存のマルチモーダル検出手法は、Deepfakeビデオを公開するために、音声と視覚の不整合をキャプチャする。
NPVForensics と呼ばれる非臨界音素とビセムの相関関係を抽出する新しいディープフェイク検出法を提案する。
我々のモデルは、微調整で下流のDeepfakeデータセットに容易に適応できる。
論文 参考訳(メタデータ) (2023-06-12T06:06:05Z) - Generative Agents: Interactive Simulacra of Human Behavior [86.1026716646289]
生成エージェントを導入し,人間の振る舞いをシミュレートする計算ソフトウェアエージェントについて紹介する。
エージェントの経験の完全な記録を格納するために,大規模言語モデルを拡張するアーキテクチャについて述べる。
The Simsにインスパイアされた対話型サンドボックス環境に生成エージェントを投入する。
論文 参考訳(メタデータ) (2023-04-07T01:55:19Z) - Leveraging Deep Learning Approaches for Deepfake Detection: A Review [0.0]
ディープフェイク(Deepfakes)は、AIによって生成されたメディアであり、実際のメディアから切り離すことが難しい。
本稿では,コスト効率のよいモデルを実現するために,様々な手法を検討することを目的とする。
論文 参考訳(メタデータ) (2023-04-04T16:04:42Z) - Mitigating Adversarial Attacks in Deepfake Detection: An Exploration of
Perturbation and AI Techniques [1.0718756132502771]
敵の例は微妙な摂動で きれいな画像やビデオに 巧みに注入される
ディープフェイクは世論を操り、世論の評判を損なう強力なツールとして登場した。
この記事では、多面的な敵の例の世界を掘り下げ、ディープラーニングアルゴリズムを騙す能力の背後にある原則を解明する。
論文 参考訳(メタデータ) (2023-02-22T23:48:19Z) - Synthesizing Physical Character-Scene Interactions [64.26035523518846]
仮想キャラクタとその周辺環境間のこのような相互作用を合成する必要がある。
本稿では,逆模倣学習と強化学習を用いて物理シミュレーション文字を学習するシステムを提案する。
我々のアプローチは、物理学に基づくキャラクターモーション生成を広い適用性に一歩近づいた。
論文 参考訳(メタデータ) (2023-02-02T05:21:32Z) - IMoS: Intent-Driven Full-Body Motion Synthesis for Human-Object
Interactions [69.95820880360345]
そこで本研究では,仮想人物の全身動作を3Dオブジェクトで合成する最初のフレームワークを提案する。
本システムでは,オブジェクトと仮想文字の関連意図を入力テキストとして記述する。
その結果, 80%以上のシナリオにおいて, 合成された全身運動は参加者よりリアルに見えることがわかった。
論文 参考訳(メタデータ) (2022-12-14T23:59:24Z) - FakeOut: Leveraging Out-of-domain Self-supervision for Multi-modal Video
Deepfake Detection [10.36919027402249]
人間の話し言葉の合成ビデオは、説得力のある方法で誤情報を拡散するのに使用することができる。
FakeOutは、事前トレーニングフェーズと適応フェーズの両方でマルチモーダルデータに依存する、新しいアプローチである。
提案手法は,オーディオ・ビジュアル・データセット上でのクロスデータセットの一般化を実現する。
論文 参考訳(メタデータ) (2022-12-01T18:56:31Z) - Detecting Deepfake Videos Using Euler Video Magnification [1.8506048493564673]
Deepfakeのビデオは、高度な機械学習技術を使ってビデオを操作している。
本稿では,ディープフェイク映像の識別技術について検討する。
提案手法では,Euler手法から抽出した特徴を用いて,偽造映像と未修正映像を分類する3つのモデルを訓練する。
論文 参考訳(メタデータ) (2021-01-27T17:37:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。