論文の概要: Seeing is not always believing: A Quantitative Study on Human Perception
of AI-Generated Images
- arxiv url: http://arxiv.org/abs/2304.13023v1
- Date: Tue, 25 Apr 2023 17:51:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-26 19:18:11.562094
- Title: Seeing is not always believing: A Quantitative Study on Human Perception
of AI-Generated Images
- Title(参考訳): 見ることは常に信じるとは限らない:AI生成画像の人間の知覚に関する定量的研究
- Authors: Zeyu Lu, Di Huang, Lei Bai, Xihui Liu, Jingjing Qu, Wanli Ouyang
- Abstract要約: 人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
この研究は、現在最先端のAIベースのビジュアルコンテンツ生成モデルが、常に人間の目を欺くことができるかどうかという疑問に答えることを目的としている。
- 参考スコア(独自算出の注目度): 75.83713438000012
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Photos serve as a way for humans to record what they experience in their
daily lives, and they are often regarded as trustworthy sources of information.
However, there is a growing concern that the advancement of artificial
intelligence (AI) technology may produce fake photos, which can create
confusion and diminish trust in photographs. This study aims to answer the
question of whether the current state-of-the-art AI-based visual content
generation models can consistently deceive human eyes and convey false
information. By conducting a high-quality quantitative study with fifty
participants, we reveal, for the first time, that humans cannot distinguish
between real photos and AI-created fake photos to a significant degree 38.7%.
Our study also finds that an individual's background, such as their gender,
age, and experience with AI-generated content (AIGC), does not significantly
affect their ability to distinguish AI-generated images from real photographs.
However, we do observe that there tend to be certain defects in AI-generated
images that serve as cues for people to distinguish between real and fake
photos. We hope that our study can raise awareness of the potential risks of
AI-generated images and encourage further research to prevent the spread of
false information. From a positive perspective, AI-generated images have the
potential to revolutionize various industries and create a better future for
humanity if they are used and regulated properly.
- Abstract(参考訳): 写真は、人間が日常生活で何を経験したかを記録するための手段であり、しばしば信頼できる情報源と見なされる。
しかし、人工知能(AI)技術の進歩が偽の写真を生み出し、写真に対する混乱と信頼の低下を引き起こすのではないかという懸念が高まっている。
本研究の目的は、現在のaiベースの視覚コンテンツ生成モデルが一貫して人間の目を欺き、誤った情報を伝えることができるかどうかという疑問に答えることである。
50人の被験者を対象に高品質な定量的調査を行い、人間は実際の写真とaiが生成した偽の写真とを38.7%の程度で区別できないことを初めて明らかにした。
また, 性別, 年齢, 経験など個人が生成するAIGC(AIGC)の背景は, 実際の写真とAI生成画像を区別する能力に大きく影響しないことがわかった。
しかし、私たちは、人々が本物と偽の写真を区別するための手がかりとなる、AI生成画像にある種の欠陥があることを観察しています。
我々の研究は、AI生成画像の潜在的なリスクに対する認識を高め、偽情報の拡散を防止するためにさらなる研究を促進することを願っている。
ポジティブな観点から見れば、AI生成画像は様々な産業に革命をもたらす可能性があり、もしそれが適切に使用され、規制されたら、人類にとってより良い未来を生み出すことができる。
関連論文リスト
- Unmasking Illusions: Understanding Human Perception of Audiovisual Deepfakes [49.81915942821647]
本研究は,ディープフェイク映像を主観的研究により識別する人間の能力を評価することを目的とする。
人間の観察者を5つの最先端オーディオ視覚深度検出モデルと比較することにより,その知見を提示する。
同じ40の動画で評価すると、すべてのAIモデルは人間より優れていることが分かりました。
論文 参考訳(メタデータ) (2024-05-07T07:57:15Z) - AIGCOIQA2024: Perceptual Quality Assessment of AI Generated Omnidirectional Images [70.42666704072964]
我々はAI生成の全方位画像IQAデータベースAIIGCOIQA2024を構築した。
3つの視点から人間の視覚的嗜好を評価するために、主観的IQA実験を行った。
我々は,データベース上での最先端IQAモデルの性能を評価するためのベンチマーク実験を行った。
論文 参考訳(メタデータ) (2024-04-01T10:08:23Z) - Organic or Diffused: Can We Distinguish Human Art from AI-generated
Images? [25.64143648796873]
AIが生成した画像を人間のアートから取り除くことは、難しい問題だ。
この問題に対処できないため、悪いアクターは、AIイメージを禁止したポリシーを掲げる人間芸術や企業に対してプレミアムを支払う個人を欺くことができる。
7つのスタイルにまたがって実際の人間のアートをキュレートし、5つの生成モデルからマッチング画像を生成し、8つの検出器を適用します。
論文 参考訳(メタデータ) (2024-02-05T17:25:04Z) - AI-Generated Images Introduce Invisible Relevance Bias to Text-Image
Retrieval [70.54890125718387]
我々は,AI生成画像がテキスト画像検索モデルに目に見えない関連性バイアスをもたらすことを示す。
検索モデルのトレーニングデータにAI生成画像を含めると、目に見えない関連性バイアスが増す。
本研究では,目に見えない関連バイアスを軽減するための効果的なトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-23T16:22:58Z) - AI-Generated Images as Data Source: The Dawn of Synthetic Era [61.879821573066216]
生成AIは、現実世界の写真によく似た合成画像を作成する可能性を解き放った。
本稿では、これらのAI生成画像を新しいデータソースとして活用するという革新的な概念を探求する。
実際のデータとは対照的に、AI生成データには、未整合のアブリダンスやスケーラビリティなど、大きなメリットがある。
論文 参考訳(メタデータ) (2023-10-03T06:55:19Z) - CIFAKE: Image Classification and Explainable Identification of
AI-Generated Synthetic Images [7.868449549351487]
本稿では,コンピュータビジョンによるAI生成画像の認識能力を高めることを提案する。
写真が本物かAIによって生成されるかに関して、バイナリ分類問題として存在する2つのデータセット。
本研究では,畳み込みニューラルネットワーク(CNN)を用いて画像をリアルとフェイクの2つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-03-24T16:33:06Z) - The Value of AI Guidance in Human Examination of Synthetically-Generated
Faces [4.144518961834414]
我々は,ヒト誘導型顔検出装置が,合成画像検出のタスクにおいて,熟練者以外の操作者を支援することができるかどうかを検討する。
我々は1,560名以上の被験者を対象に大規模な実験を行った。
人間の誘導で訓練されたモデルは、伝統的にクロスエントロピー損失を用いて訓練されたモデルと比較して、人間の顔画像の検査により良いサポートを提供する。
論文 参考訳(メタデータ) (2022-08-22T18:45:53Z) - Explainable AI for Natural Adversarial Images [4.387699521196243]
人間は、AIの決定プロセスが自分自身を反映していると仮定する傾向があります。
ここでは、説明可能なAIの手法がこの仮定を破り、参加者が敵画像と標準画像のAI分類を予測するのに役立つかどうかを評価する。
正当性マップと実例の両方がAIエラーのキャッチを容易にするが、その効果は加法的ではなく、正当性マップは実例よりも効果的である。
論文 参考訳(メタデータ) (2021-06-16T20:19:04Z) - Deepfake Forensics via An Adversarial Game [99.84099103679816]
顔偽造と画像・映像品質の両面での一般化能力向上のための対人訓練を提唱する。
AIベースの顔操作は、しばしば、一般化が困難であるモデルによって容易に発見できる高周波アーティファクトにつながることを考慮し、これらの特定のアーティファクトを曖昧にしようとする新しい逆トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-03-25T02:20:08Z) - Cognitive Anthropomorphism of AI: How Humans and Computers Classify
Images [0.0]
人間は認知人類同型(英: Cognitive anthropomorphism)、つまりAIが人間の知性と同じ性質を持つことを期待する。
このミスマッチは、適切な人間とAIの相互作用に障害をもたらす。
私は、人間とAIの分類のミスマッチに対処できるシステム設計に3つの戦略を提供します。
論文 参考訳(メタデータ) (2020-02-07T21:49:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。