論文の概要: On the Horizon: Interactive and Compositional Deepfakes
- arxiv url: http://arxiv.org/abs/2209.01714v1
- Date: Mon, 5 Sep 2022 01:08:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 12:52:24.370990
- Title: On the Horizon: Interactive and Compositional Deepfakes
- Title(参考訳): 水平:インタラクティブで構成的なディープフェイク
- Authors: Eric Horvitz
- Abstract要約: インタラクティブで構成的なディープフェイクは、私たちを先史時代の世界に近づけることを脅かす。
緩和がなければ、インタラクティブで構成的なディープフェイクは、私たちをポストエピステミックの世界に近づけることを脅かします。
- 参考スコア(独自算出の注目度): 26.32590947516587
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Over a five-year period, computing methods for generating high-fidelity,
fictional depictions of people and events moved from exotic demonstrations by
computer science research teams into ongoing use as a tool of disinformation.
The methods, referred to with the portmanteau of "deepfakes," have been used to
create compelling audiovisual content. Here, I share challenges ahead with
malevolent uses of two classes of deepfakes that we can expect to come into
practice with costly implications for society: interactive and compositional
deepfakes. Interactive deepfakes have the capability to impersonate people with
realistic interactive behaviors, taking advantage of advances in multimodal
interaction. Compositional deepfakes leverage synthetic content in larger
disinformation plans that integrate sets of deepfakes over time with observed,
expected, and engineered world events to create persuasive synthetic histories.
Synthetic histories can be constructed manually but may one day be guided by
adversarial generative explanation (AGE) techniques. In the absence of
mitigations, interactive and compositional deepfakes threaten to move us closer
to a post-epistemic world, where fact cannot be distinguished from fiction. I
shall describe interactive and compositional deepfakes and reflect about
cautions and potential mitigations to defend against them.
- Abstract(参考訳): 5年間にわたって、コンピュータサイエンス研究チームによるエキゾチックなデモンストレーションから、偽情報のツールとしての使用へと、高忠実で架空の人物や出来事の描写を生成するための計算方法が移行した。
ディープフェイク(deepfakes)のポートマントー(Portmanteau)と呼ばれる手法は、魅力的なオーディオヴィジュアルコンテンツを作成するために使われてきた。
ここで、私は、社会にとってコストのかかる影響を伴う2種類のディープフェイク、すなわちインタラクティブとコンポジションのディープフェイク(deepfakes)の有望な使用に対する課題を共有します。
インタラクティブなディープフェイクは、マルチモーダルインタラクションの進歩を生かして、現実的なインタラクティブな振る舞いを持つ人々をまねる能力を持っている。
構成的ディープフェイクは、観察され、予測され、設計された世界の出来事と時間をかけて統合し、説得力のある合成ヒストリを作成する、より大きな偽情報プランで合成コンテンツを活用する。
合成ヒストリーは手動で構築できるが、いつの日か逆生成的説明(age)技術によって誘導されることがある。
緩和がなければ、インタラクティブで構成的なディープフェイクは、事実がフィクションと区別できないポストエステミックな世界へと私たちを近づけることを脅かす。
対話的かつ構成的なディープフェイクについて述べ、それらに対する警戒及び潜在的な緩和について考察する。
関連論文リスト
- Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - Flow as the Cross-Domain Manipulation Interface [73.15952395641136]
Im2Flow2Actは、現実世界のロボットのトレーニングデータを必要とせずに、ロボットが現実世界の操作スキルを習得することを可能にする。
Im2Flow2Actはフロー生成ネットワークとフロー条件ポリシーの2つのコンポーネントから構成される。
我々はIm2Flow2Actの様々な実世界のタスクにおいて、剛性、調音、変形可能なオブジェクトの操作を含む能力を実証する。
論文 参考訳(メタデータ) (2024-07-21T16:15:02Z) - Unmasking Illusions: Understanding Human Perception of Audiovisual Deepfakes [49.81915942821647]
本研究は,ディープフェイク映像を主観的研究により識別する人間の能力を評価することを目的とする。
人間の観察者を5つの最先端オーディオ視覚深度検出モデルと比較することにより,その知見を提示する。
同じ40の動画で評価すると、すべてのAIモデルは人間より優れていることが分かりました。
論文 参考訳(メタデータ) (2024-05-07T07:57:15Z) - Explainable Deepfake Video Detection using Convolutional Neural Network and CapsuleNet [0.0]
ディープフェイク技術は、実際の参加に関係なく、個人をデジタルメディアにシームレスに挿入する。
主要なディープフェイク生成アルゴリズムであるGANは、リアルなイメージやビデオを作成するために機械学習を使用している。
我々は、説明可能なAIを通じてモデルの意思決定プロセスを解明し、透明な人間とAIの関係を育むことを目指している。
論文 参考訳(メタデータ) (2024-04-19T12:21:27Z) - Text-image guided Diffusion Model for generating Deepfake celebrity
interactions [50.37578424163951]
拡散モデルは近年、非常にリアルなビジュアルコンテンツ生成を実証している。
本稿では,その点において新しい手法を考案し,検討する。
提案手法により, 現実感を脅かすことなく, 偽の視覚コンテンツを作成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-26T08:24:37Z) - Towards Understanding of Deepfake Videos in the Wild [17.76886643741705]
これまでに収集された最大かつ最も多様な深海深海深度データセット(RWDF-23)について紹介する。
データセットの範囲を以前の研究を超えて拡大することで、現実世界のディープフェイクコンテンツの範囲を広げることができます。
また、創造者、操作戦略、目的、実世界のコンテンツ制作方法など、ディープフェイクの様々な側面を包括的に分析する。
論文 参考訳(メタデータ) (2023-09-05T03:16:38Z) - Generative Agents: Interactive Simulacra of Human Behavior [86.1026716646289]
生成エージェントを導入し,人間の振る舞いをシミュレートする計算ソフトウェアエージェントについて紹介する。
エージェントの経験の完全な記録を格納するために,大規模言語モデルを拡張するアーキテクチャについて述べる。
The Simsにインスパイアされた対話型サンドボックス環境に生成エージェントを投入する。
論文 参考訳(メタデータ) (2023-04-07T01:55:19Z) - Leveraging Deep Learning Approaches for Deepfake Detection: A Review [0.0]
ディープフェイク(Deepfakes)は、AIによって生成されたメディアであり、実際のメディアから切り離すことが難しい。
本稿では,コスト効率のよいモデルを実現するために,様々な手法を検討することを目的とする。
論文 参考訳(メタデータ) (2023-04-04T16:04:42Z) - Synthesizing Physical Character-Scene Interactions [64.26035523518846]
仮想キャラクタとその周辺環境間のこのような相互作用を合成する必要がある。
本稿では,逆模倣学習と強化学習を用いて物理シミュレーション文字を学習するシステムを提案する。
我々のアプローチは、物理学に基づくキャラクターモーション生成を広い適用性に一歩近づいた。
論文 参考訳(メタデータ) (2023-02-02T05:21:32Z) - FakeOut: Leveraging Out-of-domain Self-supervision for Multi-modal Video
Deepfake Detection [10.36919027402249]
人間の話し言葉の合成ビデオは、説得力のある方法で誤情報を拡散するのに使用することができる。
FakeOutは、事前トレーニングフェーズと適応フェーズの両方でマルチモーダルデータに依存する、新しいアプローチである。
提案手法は,オーディオ・ビジュアル・データセット上でのクロスデータセットの一般化を実現する。
論文 参考訳(メタデータ) (2022-12-01T18:56:31Z) - Detecting Deepfake Videos Using Euler Video Magnification [1.8506048493564673]
Deepfakeのビデオは、高度な機械学習技術を使ってビデオを操作している。
本稿では,ディープフェイク映像の識別技術について検討する。
提案手法では,Euler手法から抽出した特徴を用いて,偽造映像と未修正映像を分類する3つのモデルを訓練する。
論文 参考訳(メタデータ) (2021-01-27T17:37:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。