論文の概要: A Representative Study on Human Detection of Artificially Generated
Media Across Countries
- arxiv url: http://arxiv.org/abs/2312.05976v1
- Date: Sun, 10 Dec 2023 19:34:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 17:39:36.918282
- Title: A Representative Study on Human Detection of Artificially Generated
Media Across Countries
- Title(参考訳): 国間における人工メディアの検出に関する代表的研究
- Authors: Joel Frank, Franziska Herbert, Jonas Ricker, Lea Sch\"onherr, Thorsten
Eisenhofer, Asja Fischer, Markus D\"urmuth, Thorsten Holz
- Abstract要約: 最先端の偽造品は「本物の」メディアとほとんど区別がつかない。
大多数の参加者は、いつ人間や機械が生成したと評価するかを単に推測している。
さらに、AIによって生成されたメディア受信は、あらゆるメディアタイプとすべての国で、より人間らしく投票される。
- 参考スコア(独自算出の注目度): 28.99277150719848
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI-generated media has become a threat to our digital society as we know it.
These forgeries can be created automatically and on a large scale based on
publicly available technology. Recognizing this challenge, academics and
practitioners have proposed a multitude of automatic detection strategies to
detect such artificial media. However, in contrast to these technical advances,
the human perception of generated media has not been thoroughly studied yet.
In this paper, we aim at closing this research gap. We perform the first
comprehensive survey into people's ability to detect generated media, spanning
three countries (USA, Germany, and China) with 3,002 participants across audio,
image, and text media. Our results indicate that state-of-the-art forgeries are
almost indistinguishable from "real" media, with the majority of participants
simply guessing when asked to rate them as human- or machine-generated. In
addition, AI-generated media receive is voted more human like across all media
types and all countries. To further understand which factors influence people's
ability to detect generated media, we include personal variables, chosen based
on a literature review in the domains of deepfake and fake news research. In a
regression analysis, we found that generalized trust, cognitive reflection, and
self-reported familiarity with deepfakes significantly influence participant's
decision across all media categories.
- Abstract(参考訳): AI生成メディアは、私たちが知っているデジタル社会にとって脅威となっている。
これらの偽造物は、公開技術に基づいて、かつ大規模に自動的に作成することができる。
この課題を認識した学者や実践者は,そのような人工メディアを検出するための自動検出戦略を多数提案している。
しかし、これらの技術的進歩とは対照的に、生成されたメディアに対する人間の認識は、まだ十分に研究されていない。
本稿では,この研究ギャップを埋めることを目的とする。
我々は,3カ国(米国,ドイツ,中国)で音声,画像,テキストメディアの3,002人を対象に,生成メディアを検出する人々の能力に関する総合的な調査を行った。
以上の結果から,最先端の偽造品は「リアル」メディアとほとんど区別できないことが示唆された。
さらに、AIによって生成されたメディア受信は、あらゆるメディアタイプとすべての国で、より人間らしく投票される。
生成メディアの検出能力に影響を及ぼす要因をさらに理解するため,ディープフェイクやフェイクニュース研究の分野における文献レビューに基づいて選択した個人変数を含む。
回帰分析の結果, 総合的信頼, 認知的リフレクション, およびディープフェイクに対する自己報告的親和性は, 全メディアカテゴリーの参加者の判断に大きく影響した。
関連論文リスト
- A Survey of Stance Detection on Social Media: New Directions and Perspectives [50.27382951812502]
姿勢検出は 感情コンピューティングにおける 重要なサブフィールドとして現れました
近年は、効果的な姿勢検出手法の開発に対する研究の関心が高まっている。
本稿では,ソーシャルメディア上での姿勢検出手法に関する包括的調査を行う。
論文 参考訳(メタデータ) (2024-09-24T03:06:25Z) - Deepfake Media Forensics: State of the Art and Challenges Ahead [51.33414186878676]
AIが生成する合成メディア、別名Deepfakesは、エンターテイメントからサイバーセキュリティまで、多くの領域に影響を与えている。
ディープフェイク検出は、微妙な矛盾やアーティファクトを機械学習技術で識別することに焦点を当て、研究の不可欠な領域となっている。
本稿では,これらの課題に対処する主要なアルゴリズムについて,その利点,限界,今後の展望について検討する。
論文 参考訳(メタデータ) (2024-08-01T08:57:47Z) - AMMeBa: A Large-Scale Survey and Dataset of Media-Based Misinformation In-The-Wild [1.4193873432298625]
オンラインメディアをベースとした誤情報に注釈を付けるために,ヒトラプターを用いた2年間の研究結果を示す。
偽情報クレームにおける生成AIベースのコンテンツの増加を示す。
また、歴史的に支配的な「単純な」手法、特に文脈操作を示す。
論文 参考訳(メタデータ) (2024-05-19T23:05:53Z) - Unmasking Illusions: Understanding Human Perception of Audiovisual Deepfakes [49.81915942821647]
本研究は,ディープフェイク映像を主観的研究により識別する人間の能力を評価することを目的とする。
人間の観察者を5つの最先端オーディオ視覚深度検出モデルと比較することにより,その知見を提示する。
同じ40の動画で評価すると、すべてのAIモデルは人間より優れていることが分かりました。
論文 参考訳(メタデータ) (2024-05-07T07:57:15Z) - As Good As A Coin Toss: Human detection of AI-generated images, videos, audio, and audiovisual stimuli [0.0]
合成メディアによる誤解に対する主な防御は、人間の観察者が実物と偽物とを視覚的に聴覚的に識別する能力に依存する。
被験者1276名を対象に, 合成画像, 音声のみ, ビデオのみ, 映像のみ, 音声視覚刺激を正当性から識別する能力について検討した。
論文 参考訳(メタデータ) (2024-03-25T13:39:33Z) - The Media Bias Taxonomy: A Systematic Literature Review on the Forms and
Automated Detection of Media Bias [5.579028648465784]
本稿は、2019年から2022年の間に発行された3140の論文を体系的にレビューし、メディアバイアスを検出するための計算方法の研究を要約する。
メディアバイアス検出は,近年,トランスフォーマーに基づく分類手法が顕著な進歩をもたらしている,非常に活発な研究分野であることを示す。
論文 参考訳(メタデータ) (2023-12-26T18:13:52Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - Bias or Diversity? Unraveling Fine-Grained Thematic Discrepancy in U.S.
News Headlines [63.52264764099532]
われわれは、2014年から2022年までの米国の主要メディアから、180万件のニュース記事の大規模なデータセットを使用している。
我々は、国内政治、経済問題、社会問題、外交の4つの主要なトピックに関連する、きめ細かいテーマの相違を定量化する。
以上の結果から,国内政治や社会問題においては,一定のメディア偏見が原因であることが示唆された。
論文 参考訳(メタデータ) (2023-03-28T03:31:37Z) - Fighting Malicious Media Data: A Survey on Tampering Detection and
Deepfake Detection [115.83992775004043]
近年のディープラーニング、特に深層生成モデルの発展により、知覚的に説得力のある画像や動画を低コストで制作するための扉が開かれた。
本稿では,現在のメディアタンパリング検出手法を概観し,今後の研究の課題と動向について論じる。
論文 参考訳(メタデータ) (2022-12-12T02:54:08Z) - The Deepfake Detection Dilemma: A Multistakeholder Exploration of
Adversarial Dynamics in Synthetic Media [0.0]
合成メディア検出技術は、メディアを合成または非合成のいずれかとラベル付けする。
検出プラクティスがよりアクセスしやすくなれば,回避も容易になる。
この研究は、検出器ジレンマをナビゲートする「最良の」アプローチは存在しないと結論付けている。
論文 参考訳(メタデータ) (2021-02-11T16:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。