論文の概要: Organic or Diffused: Can We Distinguish Human Art from AI-generated Images?
- arxiv url: http://arxiv.org/abs/2402.03214v3
- Date: Tue, 2 Jul 2024 20:22:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 20:04:00.487001
- Title: Organic or Diffused: Can We Distinguish Human Art from AI-generated Images?
- Title(参考訳): AIが生成した画像から人間のアートを区別できるのか?
- Authors: Anna Yoo Jeong Ha, Josephine Passananti, Ronik Bhaskar, Shawn Shan, Reid Southen, Haitao Zheng, Ben Y. Zhao,
- Abstract要約: AIが生成した画像を人間のアートから取り除くことは、難しい問題だ。
この問題に対処できないため、悪いアクターは、AIイメージを禁止したポリシーを掲げる人間芸術や企業に対してプレミアムを支払う個人を欺くことができる。
7つのスタイルにまたがって実際の人間のアートをキュレートし、5つの生成モデルからマッチング画像を生成し、8つの検出器を適用します。
- 参考スコア(独自算出の注目度): 24.417027069545117
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The advent of generative AI images has completely disrupted the art world. Distinguishing AI generated images from human art is a challenging problem whose impact is growing over time. A failure to address this problem allows bad actors to defraud individuals paying a premium for human art and companies whose stated policies forbid AI imagery. It is also critical for content owners to establish copyright, and for model trainers interested in curating training data in order to avoid potential model collapse. There are several different approaches to distinguishing human art from AI images, including classifiers trained by supervised learning, research tools targeting diffusion models, and identification by professional artists using their knowledge of artistic techniques. In this paper, we seek to understand how well these approaches can perform against today's modern generative models in both benign and adversarial settings. We curate real human art across 7 styles, generate matching images from 5 generative models, and apply 8 detectors (5 automated detectors and 3 different human groups including 180 crowdworkers, 4000+ professional artists, and 13 expert artists experienced at detecting AI). Both Hive and expert artists do very well, but make mistakes in different ways (Hive is weaker against adversarial perturbations while Expert artists produce higher false positives). We believe these weaknesses will remain as models continue to evolve, and use our data to demonstrate why a combined team of human and automated detectors provides the best combination of accuracy and robustness.
- Abstract(参考訳): 生成的AI画像の出現は、アートの世界を完全に破壊した。
AIが生成した画像を人間のアートから取り除くことは、時間の経過とともにその影響が拡大する難しい問題だ。
この問題に対処できないため、悪いアクターは、AIイメージを禁止したポリシーを掲げる人間芸術や企業に対してプレミアムを支払う個人を欺くことができる。
また、コンテンツ所有者が著作権を確立することや、潜在的なモデルの崩壊を避けるためにトレーニングデータのキュレーションに関心のあるモデルトレーナーにとっても重要である。
人間のアートとAIのイメージを区別するためのアプローチには、教師付き学習によって訓練された分類器、拡散モデルをターゲットにした研究ツール、芸術技術に関する知識を使ったプロのアーティストによる識別など、いくつかの異なるものがある。
本稿では,これらの手法が,今日の近代的生成モデルに対して,良性および逆性の両方において,いかに効果的に機能するかを理解することを目的とする。
私たちは、実際の人間のアートを7つのスタイルでキュレートし、5つの生成モデルからマッチング画像を生成し、8つの検出器(5つの自動検出器と180人のクラウドワーカー、4000人以上のプロアーティスト、13人の専門家アーティストを含む3つの異なる人間グループ)を適用します。
Hiveとエキスパートアーティストはどちらも非常にうまく機能するが、異なる方法で間違いを犯す(Hiveは敵の摂動に対して弱く、エキスパートアーティストは高い偽陽性を生成する)。
モデルが進化を続けるにつれて、これらの弱点は今後も続くと私たちは信じており、私たちのデータを使って、人間と自動化された検出器のチームが、正確性と堅牢性の最高の組み合わせを提供する理由を実証しています。
関連論文リスト
- Laypeople's Egocentric Perceptions of Copyright for AI-Generated Art [3.072340427031969]
本研究では,著作権保護に関連する要因に関する,AI生成技術に対する認識について検討する。
参加者は、AI生成画像の作者と著作権を、システムに画像を生成するよう促したユーザーに委ねる可能性が高い。
以上の結果から, 創造性や努力などに関して, 自分達のAI生成技術をより好意的に判断する者はいるものの, 他者(スキル)ではないことが示唆された。
論文 参考訳(メタデータ) (2024-07-15T08:53:43Z) - Adversarial Perturbations Cannot Reliably Protect Artists From Generative AI [61.35083814817094]
オンラインで公開されたアートワークに小さな敵対的摂動を取り入れた、スタイルの模倣に対する保護ツールがいくつか開発されている。
画像アップスケーリングのような低努力と「オフ・ザ・シェルフ」技術は、既存の保護を著しく劣化させる堅牢な模倣手法を作成するのに十分であることがわかった。
我々は,敵対的摂動に基づくツールが,生成AIの誤用からアーティストを確実に保護できないことを警告する。
論文 参考訳(メタデータ) (2024-06-17T18:51:45Z) - How to Distinguish AI-Generated Images from Authentic Photographs [13.878791907839691]
ガイドでは、AI生成画像によく現れる人工物と不確実性の5つのカテゴリを明らかにしている。
拡散モデルで128枚の画像を生成し,ソーシャルメディアから9枚の画像をキュレートし,42枚の実写写真をキュレートした。
この種のアーティファクトや不確実性に注意を向けることで、私たちは、AI生成画像と実際の写真とをより適切に区別することを目指しています。
論文 参考訳(メタデータ) (2024-06-12T21:23:27Z) - Unmasking Illusions: Understanding Human Perception of Audiovisual Deepfakes [49.81915942821647]
本研究は,ディープフェイク映像を主観的研究により識別する人間の能力を評価することを目的とする。
人間の観察者を5つの最先端オーディオ視覚深度検出モデルと比較することにより,その知見を提示する。
同じ40の動画で評価すると、すべてのAIモデルは人間より優れていることが分かりました。
論文 参考訳(メタデータ) (2024-05-07T07:57:15Z) - AI Art Neural Constellation: Revealing the Collective and Contrastive
State of AI-Generated and Human Art [36.21731898719347]
我々は、人間の芸術遺産の文脈内でAI生成芸術を位置づけるための包括的な分析を行う。
私たちの比較分析は、ArtConstellationと呼ばれる広範なデータセットに基づいています。
鍵となる発見は、1800-2000年に作られた現代美術の原理とAIが生成したアートアートが視覚的に関連していることである。
論文 参考訳(メタデータ) (2024-02-04T11:49:51Z) - DeepfakeArt Challenge: A Benchmark Dataset for Generative AI Art Forgery and Data Poisoning Detection [57.51313366337142]
悪意ある目的のために生成的AIを使用することについて懸念が高まっている。
生成AIを用いた視覚コンテンツ合成の領域では、画像偽造とデータ中毒が重要な関心事となっている。
DeepfakeArt Challenge(ディープフェイクアートチャレンジ)は、AIアートのジェネレーションとデータ中毒検出のための機械学習アルゴリズムの構築を支援するために設計された、大規模なチャレンジベンチマークデータセットである。
論文 参考訳(メタデータ) (2023-06-02T05:11:27Z) - Learning to Evaluate the Artness of AI-generated Images [64.48229009396186]
アートスコア(ArtScore)は、アーティストによる本物のアートワークと画像がどの程度似ているかを評価するために設計されたメトリクスである。
我々は、写真とアートワークの生成のために事前訓練されたモデルを採用し、一連の混合モデルを生み出した。
このデータセットはニューラルネットワークのトレーニングに使用され、任意の画像の定量化精度レベルを推定する方法を学ぶ。
論文 参考訳(メタデータ) (2023-05-08T17:58:27Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - Everyone Can Be Picasso? A Computational Framework into the Myth of
Human versus AI Painting [8.031314357134795]
我々は,人間の絵画とAI絵画の違いを調べるために,ニューラル潜在空間と美学の特徴を視覚分析と組み合わせた計算フレームワークを開発した。
AIアートワークは、潜在空間と、ストロークやシャープネスといった美的特徴の両方において、人間のアートワークと分布的な違いを示す。
本研究は,人間の絵画とAI絵画の相違点に関する具体的証拠を提供するとともに,美学と人間芸術家の関与を考慮し,AIアートの改善を示唆するものである。
論文 参考訳(メタデータ) (2023-04-17T05:48:59Z) - Deepfake Forensics via An Adversarial Game [99.84099103679816]
顔偽造と画像・映像品質の両面での一般化能力向上のための対人訓練を提唱する。
AIベースの顔操作は、しばしば、一般化が困難であるモデルによって容易に発見できる高周波アーティファクトにつながることを考慮し、これらの特定のアーティファクトを曖昧にしようとする新しい逆トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-03-25T02:20:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。