論文の概要: Seeing is not always believing: A Quantitative Study on Human Perception
of AI-Generated Images
- arxiv url: http://arxiv.org/abs/2304.13023v1
- Date: Tue, 25 Apr 2023 17:51:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-26 19:18:11.562094
- Title: Seeing is not always believing: A Quantitative Study on Human Perception
of AI-Generated Images
- Title(参考訳): 見ることは常に信じるとは限らない:AI生成画像の人間の知覚に関する定量的研究
- Authors: Zeyu Lu, Di Huang, Lei Bai, Xihui Liu, Jingjing Qu, Wanli Ouyang
- Abstract要約: 人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
この研究は、現在最先端のAIベースのビジュアルコンテンツ生成モデルが、常に人間の目を欺くことができるかどうかという疑問に答えることを目的としている。
- 参考スコア(独自算出の注目度): 75.83713438000012
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Photos serve as a way for humans to record what they experience in their
daily lives, and they are often regarded as trustworthy sources of information.
However, there is a growing concern that the advancement of artificial
intelligence (AI) technology may produce fake photos, which can create
confusion and diminish trust in photographs. This study aims to answer the
question of whether the current state-of-the-art AI-based visual content
generation models can consistently deceive human eyes and convey false
information. By conducting a high-quality quantitative study with fifty
participants, we reveal, for the first time, that humans cannot distinguish
between real photos and AI-created fake photos to a significant degree 38.7%.
Our study also finds that an individual's background, such as their gender,
age, and experience with AI-generated content (AIGC), does not significantly
affect their ability to distinguish AI-generated images from real photographs.
However, we do observe that there tend to be certain defects in AI-generated
images that serve as cues for people to distinguish between real and fake
photos. We hope that our study can raise awareness of the potential risks of
AI-generated images and encourage further research to prevent the spread of
false information. From a positive perspective, AI-generated images have the
potential to revolutionize various industries and create a better future for
humanity if they are used and regulated properly.
- Abstract(参考訳): 写真は、人間が日常生活で何を経験したかを記録するための手段であり、しばしば信頼できる情報源と見なされる。
しかし、人工知能(AI)技術の進歩が偽の写真を生み出し、写真に対する混乱と信頼の低下を引き起こすのではないかという懸念が高まっている。
本研究の目的は、現在のaiベースの視覚コンテンツ生成モデルが一貫して人間の目を欺き、誤った情報を伝えることができるかどうかという疑問に答えることである。
50人の被験者を対象に高品質な定量的調査を行い、人間は実際の写真とaiが生成した偽の写真とを38.7%の程度で区別できないことを初めて明らかにした。
また, 性別, 年齢, 経験など個人が生成するAIGC(AIGC)の背景は, 実際の写真とAI生成画像を区別する能力に大きく影響しないことがわかった。
しかし、私たちは、人々が本物と偽の写真を区別するための手がかりとなる、AI生成画像にある種の欠陥があることを観察しています。
我々の研究は、AI生成画像の潜在的なリスクに対する認識を高め、偽情報の拡散を防止するためにさらなる研究を促進することを願っている。
ポジティブな観点から見れば、AI生成画像は様々な産業に革命をもたらす可能性があり、もしそれが適切に使用され、規制されたら、人類にとってより良い未来を生み出すことができる。
関連論文リスト
- Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - Analysis of Human Perception in Distinguishing Real and AI-Generated Faces: An Eye-Tracking Based Study [6.661332913985627]
本研究では,人間がどのように実像と偽像を知覚し,区別するかを検討する。
StyleGAN-3生成画像を解析したところ、参加者は76.80%の平均精度で偽の顔と現実を区別できることがわかった。
論文 参考訳(メタデータ) (2024-09-23T19:34:30Z) - A Sanity Check for AI-generated Image Detection [49.08585395873425]
本稿では,AIによる画像検出の課題が解決されたかどうかの検査を行う。
既存の手法の一般化を定量化するために,Chameleonデータセット上で,既製のAI生成画像検出器を9つ評価した。
複数の専門家が同時に視覚的アーチファクトやノイズパターンを抽出するAI生成画像検出装置(AID)を提案する。
論文 参考訳(メタデータ) (2024-06-27T17:59:49Z) - Development of a Dual-Input Neural Model for Detecting AI-Generated Imagery [0.0]
AI生成画像を検出するツールを開発することが重要である。
本稿では、画像とフーリエ周波数分解の両方を入力として扱うデュアルブランチニューラルネットワークアーキテクチャを提案する。
提案モデルでは,CIFAKEデータセットの精度が94%向上し,従来のML手法やCNNよりも優れていた。
論文 参考訳(メタデータ) (2024-06-19T16:42:04Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - Invisible Relevance Bias: Text-Image Retrieval Models Prefer AI-Generated Images [67.18010640829682]
我々は,AI生成画像がテキスト画像検索モデルに目に見えない関連性バイアスをもたらすことを示す。
検索モデルのトレーニングデータにAI生成画像を含めると、目に見えない関連性バイアスが増す。
本研究では,目に見えない関連バイアスを軽減するための効果的なトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-23T16:22:58Z) - The Value of AI Guidance in Human Examination of Synthetically-Generated
Faces [4.144518961834414]
我々は,ヒト誘導型顔検出装置が,合成画像検出のタスクにおいて,熟練者以外の操作者を支援することができるかどうかを検討する。
我々は1,560名以上の被験者を対象に大規模な実験を行った。
人間の誘導で訓練されたモデルは、伝統的にクロスエントロピー損失を用いて訓練されたモデルと比較して、人間の顔画像の検査により良いサポートを提供する。
論文 参考訳(メタデータ) (2022-08-22T18:45:53Z) - Deepfake Forensics via An Adversarial Game [99.84099103679816]
顔偽造と画像・映像品質の両面での一般化能力向上のための対人訓練を提唱する。
AIベースの顔操作は、しばしば、一般化が困難であるモデルによって容易に発見できる高周波アーティファクトにつながることを考慮し、これらの特定のアーティファクトを曖昧にしようとする新しい逆トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-03-25T02:20:08Z) - Cognitive Anthropomorphism of AI: How Humans and Computers Classify
Images [0.0]
人間は認知人類同型(英: Cognitive anthropomorphism)、つまりAIが人間の知性と同じ性質を持つことを期待する。
このミスマッチは、適切な人間とAIの相互作用に障害をもたらす。
私は、人間とAIの分類のミスマッチに対処できるシステム設計に3つの戦略を提供します。
論文 参考訳(メタデータ) (2020-02-07T21:49:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。