論文の概要: Crafting Synthetic Realities: Examining Visual Realism and Misinformation Potential of Photorealistic AI-Generated Images
- arxiv url: http://arxiv.org/abs/2409.17484v1
- Date: Thu, 26 Sep 2024 02:46:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-28 23:28:14.013026
- Title: Crafting Synthetic Realities: Examining Visual Realism and Misinformation Potential of Photorealistic AI-Generated Images
- Title(参考訳): 創造的合成現実性:フォトリアリスティックAI生成画像の視覚的リアリズムと誤情報可能性の検討
- Authors: Qiyao Peng, Yingdan Lu, Yilang Peng, Sijia Qian, Xinyi Liu, Cuihua Shen,
- Abstract要約: この研究は、AIGIのAIフォトリアリズムを4つの重要な側面、コンテンツ、人間、美学、生産機能から解き放つ。
フォトリアリスティックAIGIは、しばしば人間の人物、特に有名人や政治家を描写する。
- 参考スコア(独自算出の注目度): 6.308018793111589
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advances in generative models have created Artificial Intelligence-Generated Images (AIGIs) nearly indistinguishable from real photographs. Leveraging a large corpus of 30,824 AIGIs collected from Instagram and Twitter, and combining quantitative content analysis with qualitative analysis, this study unpacks AI photorealism of AIGIs from four key dimensions, content, human, aesthetic, and production features. We find that photorealistic AIGIs often depict human figures, especially celebrities and politicians, with a high degree of surrealism and aesthetic professionalism, alongside a low degree of overt signals of AI production. This study is the first to empirically investigate photorealistic AIGIs across multiple platforms using a mixed-methods approach. Our findings provide important implications and insights for understanding visual misinformation and mitigating potential risks associated with photorealistic AIGIs. We also propose design recommendations to enhance the responsible use of AIGIs.
- Abstract(参考訳): 生成モデルの進歩は、実際の写真とほとんど区別できない人工知能生成画像(AIGI)を作成した。
InstagramとTwitterから収集された30,824のAIGIの大規模なコーパスを活用し、定量的コンテンツ分析と質的分析を組み合わせることで、この研究は、AIGIのAIフォトリアリズムを4つの重要な次元、コンテンツ、人間、美学、プロダクション機能から解放する。
フォトリアリスティックなAIGIは、しばしば人間の人物、特に有名人や政治家を描写し、高度な超現実主義と審美的プロフェッショナリズムと、AI生産の低レベルの過度な信号と共に表現している。
この研究は、複数のプラットフォームにわたる光リアルAIGIを混合メソッドアプローチで実験的に研究した初めてのものである。
本研究は,視覚的誤報の理解と,フォトリアリスティックAIGIに関連する潜在的なリスクの軽減に重要な意味と知見を提供する。
また,AIGIの責任ある利用を促進するために設計勧告を提案する。
関連論文リスト
- How to Distinguish AI-Generated Images from Authentic Photographs [13.878791907839691]
ガイドでは、AI生成画像によく現れる人工物と不確実性の5つのカテゴリを明らかにしている。
拡散モデルで128枚の画像を生成し,ソーシャルメディアから9枚の画像をキュレートし,42枚の実写写真をキュレートした。
この種のアーティファクトや不確実性に注意を向けることで、私たちは、AI生成画像と実際の写真とをより適切に区別することを目指しています。
論文 参考訳(メタデータ) (2024-06-12T21:23:27Z) - The Adversarial AI-Art: Understanding, Generation, Detection, and Benchmarking [47.08666835021915]
本稿では,AI生成画像(AI-art)を敵のシナリオで理解し,検出するための体系的な試みを提案する。
ARIAという名前のデータセットには、アートワーク(絵画)、ソーシャルメディアイメージ、ニュース写真、災害シーン、アニメ画像の5つのカテゴリに140万以上の画像が含まれている。
論文 参考訳(メタデータ) (2024-04-22T21:00:13Z) - AIGCOIQA2024: Perceptual Quality Assessment of AI Generated Omnidirectional Images [70.42666704072964]
我々はAI生成の全方位画像IQAデータベースAIIGCOIQA2024を構築した。
3つの視点から人間の視覚的嗜好を評価するために、主観的IQA実験を行った。
我々は,データベース上での最先端IQAモデルの性能を評価するためのベンチマーク実験を行った。
論文 参考訳(メタデータ) (2024-04-01T10:08:23Z) - AIGCs Confuse AI Too: Investigating and Explaining Synthetic Image-induced Hallucinations in Large Vision-Language Models [37.04195231708092]
我々は、AI合成画像によるLVLM(Large Vision-Language Models)の悪化する幻覚現象を強調した。
注目すべきは、AIGC textbfhallucination biasに光を当てることである: 合成画像によって誘導される物体幻覚は、より多い量で特徴づけられる。
我々は,Q-formerとLinearプロジェクタについて検討した結果,合成画像は視覚投射後のトークン偏差を呈し,幻覚バイアスを増幅することがわかった。
論文 参考訳(メタデータ) (2024-03-13T13:56:34Z) - Harnessing Machine Learning for Discerning AI-Generated Synthetic Images [2.6227376966885476]
我々は、AI生成画像と実画像の識別に機械学習技術を用いる。
ResNet、VGGNet、DenseNetといった先進的なディープラーニングアーキテクチャを洗練し、適応しています。
実験結果は重要であり、最適化されたディープラーニングモデルが従来の手法より優れていることを示した。
論文 参考訳(メタデータ) (2024-01-14T20:00:37Z) - Exploring the Naturalness of AI-Generated Images [59.04528584651131]
我々は、AI生成画像の視覚的自然性をベンチマークし、評価する第一歩を踏み出した。
本研究では,人間の評価を整列するAGIの自然性を自動予測するジョイント・オブジェクト・イメージ・ナチュラルネス評価器(JOINT)を提案する。
その結果,JOINTは自然性評価において,より主観的に一貫した結果を提供するために,ベースラインを著しく上回ることを示した。
論文 参考訳(メタデータ) (2023-12-09T06:08:09Z) - AI-Generated Images as Data Source: The Dawn of Synthetic Era [61.879821573066216]
生成AIは、現実世界の写真によく似た合成画像を作成する可能性を解き放った。
本稿では、これらのAI生成画像を新しいデータソースとして活用するという革新的な概念を探求する。
実際のデータとは対照的に、AI生成データには、未整合のアブリダンスやスケーラビリティなど、大きなメリットがある。
論文 参考訳(メタデータ) (2023-10-03T06:55:19Z) - The Beauty or the Beast: Which Aspect of Synthetic Medical Images
Deserves Our Focus? [1.6305276867803995]
医療AIアルゴリズムのトレーニングには、大量の正確なラベル付きデータセットが必要である。
深層生成モデルから生成された合成画像は、データの不足問題を緩和するのに役立つが、それらの有効性は実世界の画像への忠実さに依存している。
論文 参考訳(メタデータ) (2023-05-03T09:09:54Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - State of the Art on Neural Rendering [141.22760314536438]
我々は,古典的コンピュータグラフィックス技術と深層生成モデルを組み合わせることで,制御可能かつフォトリアリスティックな出力を得るアプローチに焦点をあてる。
本報告は,新しいビュー合成,セマンティック写真操作,顔と身体の再現,リライティング,自由視点ビデオ,バーチャルおよび拡張現実テレプレゼンスのためのフォトリアリスティックアバターの作成など,記述されたアルゴリズムの多くの重要なユースケースに焦点をあてる。
論文 参考訳(メタデータ) (2020-04-08T04:36:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。