論文の概要: Towards a New Science of Disinformation
- arxiv url: http://arxiv.org/abs/2204.01489v1
- Date: Thu, 17 Mar 2022 19:10:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-10 14:02:29.178873
- Title: Towards a New Science of Disinformation
- Title(参考訳): 情報化の新しい科学に向けて
- Authors: Claudio S. Pinhanez, German H. Flores, Marisa A. Vasconcelos, Mu Qiao,
Nick Linck, Rog\'erio de Paula, Yuya J. Ong
- Abstract要約: 深層学習が生み出すフェイクオーディオ、写真、ビデオ(ディープフェイクなど)が個人的および社会的生活にもたらす危険な影響にどのように対処するかについて議論する。
本稿では,コミュニケーションのプロセスと偽コンテンツの消費の両方に理論的な枠組みを編み出す新しい情報科学の必要性を提案する。
- 参考スコア(独自算出の注目度): 3.7305343461339664
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: How can we best address the dangerous impact that deep learning-generated
fake audios, photographs, and videos (a.k.a. deepfakes) may have in personal
and societal life? We foresee that the availability of cheap deepfake
technology will create a second wave of disinformation where people will
receive specific, personalized disinformation through different channels,
making the current approaches to fight disinformation obsolete. We argue that
fake media has to be seen as an upcoming cybersecurity problem, and we have to
shift from combating its spread to a prevention and cure framework where users
have available ways to verify, challenge, and argue against the veracity of
each piece of media they are exposed to. To create the technologies behind this
framework, we propose that a new Science of Disinformation is needed, one which
creates a theoretical framework both for the processes of communication and
consumption of false content. Key scientific and technological challenges
facing this research agenda are listed and discussed in the light of
state-of-art technologies for fake media generation and detection, argument
finding and construction, and how to effectively engage users in the prevention
and cure processes.
- Abstract(参考訳): 深層学習が生み出すフェイクオーディオ、写真、ビデオ(ディープフェイク)が個人生活や社会生活にもたらす危険な影響をどう解決するか。
我々は、安価なディープフェイク技術が利用可能になったことで、人々が異なるチャンネルを通じて特定のパーソナライズされた偽情報を受信する第二波が生まれることを予測している。
フェイクメディアは今後のサイバーセキュリティ問題と見なされる必要があり、その拡散との戦いから、ユーザーが公開する各メディアの正確性を検証する、挑戦し、議論する手段を持つ予防と治療のフレームワークに移行する必要がある、と私たちは主張している。
この枠組みの背景にある技術を開発するためには,コミュニケーションのプロセスと偽コンテンツの消費に関する理論的枠組みを創出する,新たな情報科学の必要性が示唆された。
この研究課題に直面する重要な科学的・技術的課題は、フェイクメディアの生成と検出、議論の探究と構築、ユーザーを効果的に予防と治療プロセスに結びつける方法についての最先端技術にリストアップされ、議論されている。
関連論文リスト
- Understanding Audiovisual Deepfake Detection: Techniques, Challenges, Human Factors and Perceptual Insights [49.81915942821647]
ディープラーニングは様々な分野に適用され、ディープフェイク検出への影響は例外ではない。
ディープフェイク(英: Deepfakes)は、政治的偽造、フィッシング、スランダリング、偽情報の拡散に偽装的に使用できる、偽物だが現実的な合成コンテンツである。
本稿では,ディープフェイク検出戦略の有効性を改善し,サイバーセキュリティとメディアの整合性に関する今後の研究を導くことを目的とする。
論文 参考訳(メタデータ) (2024-11-12T09:02:11Z) - Finding Fake News Websites in the Wild [0.0860395700487494]
誤情報コンテンツの作成・配信に責任があるウェブサイトを識別する新しい手法を提案する。
さまざまな実行モードやコンテキストを調べて,Twitter上でのアプローチを検証する。
論文 参考訳(メタデータ) (2024-07-09T18:00:12Z) - Deepfake Generation and Detection: A Benchmark and Survey [134.19054491600832]
Deepfakeは、特定の条件下で非常にリアルな顔画像やビデオを作成するための技術だ。
この調査は、ディープフェイクの発生と検出の最新の展開を包括的にレビューする。
本研究では, 顔交換, 顔再現, 話し顔生成, 顔属性編集の4つの代表的なディープフェイク分野の研究に焦点をあてる。
論文 参考訳(メタデータ) (2024-03-26T17:12:34Z) - The Age of Synthetic Realities: Challenges and Opportunities [85.058932103181]
我々は、有害な合成生成を識別し、それらを現実と区別することのできる法医学的手法の開発における重要な必要性を強調した。
我々の焦点は、画像、ビデオ、オーディオ、テキストなどの様々なメディアの形式にまで及んでいる。
この研究は、AI生成技術の急速な進歩と、法科学の基本原理に対する影響により、最も重要である。
論文 参考訳(メタデータ) (2023-06-09T15:55:10Z) - Fighting Malicious Media Data: A Survey on Tampering Detection and
Deepfake Detection [115.83992775004043]
近年のディープラーニング、特に深層生成モデルの発展により、知覚的に説得力のある画像や動画を低コストで制作するための扉が開かれた。
本稿では,現在のメディアタンパリング検出手法を概観し,今後の研究の課題と動向について論じる。
論文 参考訳(メタデータ) (2022-12-12T02:54:08Z) - Using Deep Learning to Detecting Deepfakes [0.0]
ディープフェイク(Deepfakes)とは、ある人物の顔を別のコンピュータが生成した顔に置き換えるビデオまたは画像である。
このオンライン脅威に対抗するために、研究者たちはディープフェイクを検出するモデルを開発した。
本研究では、ディープラーニングアルゴリズムを用いて、この略奪的な脅威に対処する様々なディープフェイク検出モデルについて検討する。
論文 参考訳(メタデータ) (2022-07-27T17:05:16Z) - Deepfakes Generation and Detection: State-of-the-art, open challenges,
countermeasures, and way forward [2.15242029196761]
不正情報、リベンジポルノ、金融詐欺、詐欺、政府機能を妨害するディープフェイクを発生させることが可能である。
オーディオとビデオの両方のディープフェイクの検出と生成のアプローチをレビューする試みは行われていない。
本稿では、deepfake生成のための既存のツールと機械学習(ml)ベースのアプローチの包括的なレビューと詳細な分析を提供する。
論文 参考訳(メタデータ) (2021-02-25T18:26:50Z) - An Agenda for Disinformation Research [3.083055913556838]
情報化は民主主義の基本的な基盤である社会政治機関への信頼を損なう。
偽り、誤解を招いたり、不正確な情報を欺く意図で配信することは、アメリカ合衆国にとって現実的な脅威である。
この成長する課題を理解し、対処するために、これらの余裕を活用するために、新しいツールとアプローチを開発する必要があります。
論文 参考訳(メタデータ) (2020-12-15T19:32:36Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - Mining Disinformation and Fake News: Concepts, Methods, and Recent
Advancements [55.33496599723126]
偽ニュースを含む偽ニュースは 爆発的な成長により グローバルな現象になっています
偽情報や偽ニュースを検知する最近の進歩にもかかわらず、その複雑さ、多様性、多様性、事実チェックやアノテーションのコストが原因で、いまだに自明ではない。
論文 参考訳(メタデータ) (2020-01-02T21:01:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。