論文の概要: Towards Understanding the Interplay of Generative Artificial
Intelligence and the Internet
- arxiv url: http://arxiv.org/abs/2306.06130v1
- Date: Thu, 8 Jun 2023 11:14:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 21:11:56.345365
- Title: Towards Understanding the Interplay of Generative Artificial
Intelligence and the Internet
- Title(参考訳): 生成型人工知能とインターネットの相互作用理解に向けて
- Authors: Gonzalo Mart\'inez, Lauren Watson, Pedro Reviriego, Jos\'e Alberto
Hern\'andez, Marc Juarez, Rik Sarkar
- Abstract要約: 生成AIツールは、DALL-E、MidJourney、ChatGPTなどの現実的な画像やテキストを生成することができる。
これらのツールは、インターネットを通じて公開されている大量のデータ(テキストと画像)によって可能となる。
生成AIツールの今後のバージョンは、人間の作ったコンテンツとAI生成物の混在で訓練される。
生成型AIツールの将来のバージョンは、実データとAI生成データを混合してトレーニングした場合、どのように振る舞うのか?
- 参考スコア(独自算出の注目度): 6.62688326060372
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid adoption of generative Artificial Intelligence (AI) tools that can
generate realistic images or text, such as DALL-E, MidJourney, or ChatGPT, have
put the societal impacts of these technologies at the center of public debate.
These tools are possible due to the massive amount of data (text and images)
that is publicly available through the Internet. At the same time, these
generative AI tools become content creators that are already contributing to
the data that is available to train future models. Therefore, future versions
of generative AI tools will be trained with a mix of human-created and
AI-generated content, causing a potential feedback loop between generative AI
and public data repositories. This interaction raises many questions: how will
future versions of generative AI tools behave when trained on a mixture of real
and AI generated data? Will they evolve and improve with the new data sets or
on the contrary will they degrade? Will evolution introduce biases or reduce
diversity in subsequent generations of generative AI tools? What are the
societal implications of the possible degradation of these models? Can we
mitigate the effects of this feedback loop? In this document, we explore the
effect of this interaction and report some initial results using simple
diffusion models trained with various image datasets. Our results show that the
quality and diversity of the generated images can degrade over time suggesting
that incorporating AI-created data can have undesired effects on future
versions of generative models.
- Abstract(参考訳): DALL-E、MidJourney、ChatGPTといった、現実的な画像やテキストを生成する生成人工知能(AI)ツールの急速な採用は、これらの技術の社会的影響を公開討論の中心に置いている。
これらのツールは、インターネットを通じて公開されている大量のデータ(テキストと画像)によって可能となる。
同時に、これらの生成AIツールは、将来モデルのトレーニングに利用可能なデータにすでに貢献しているコンテンツクリエーターになる。
そのため、生成AIツールの将来のバージョンは、人によって作成されたコンテンツとAI生成されたコンテンツの混合でトレーニングされる。
生成型AIツールの将来のバージョンは、実データとAI生成データを混合してトレーニングした場合、どのように振る舞うのか?
新しいデータセットで進化し、改善するのか、それともその逆で劣化するのか?
進化は、世代別AIツールのバイアスをもたらすか、多様性を減らすのか?
これらのモデルの劣化の社会的意味は何か。
このフィードバックループの効果を軽減できますか?
本稿では,この相互作用の効果を考察し,各種画像データセットを用いた簡易拡散モデルを用いて初期結果を報告する。
以上の結果から,生成画像の品質と多様性は時間とともに劣化し,aiが生成するデータが将来の生成モデルに望ましくない影響をもたらす可能性が示唆された。
関連論文リスト
- The Generative AI Paradox: "What It Can Create, It May Not Understand" [81.89252713236746]
生成AIの最近の波は、潜在的に超人的な人工知能レベルに対する興奮と懸念を引き起こしている。
同時に、モデルは、専門家でない人でも期待できないような理解の基本的な誤りを示している。
一見超人的な能力と、ごく少数の人間が起こすエラーの持続性を、どうやって再現すればよいのか?
論文 参考訳(メタデータ) (2023-10-31T18:07:07Z) - AI-Generated Images as Data Source: The Dawn of Synthetic Era [61.879821573066216]
生成AIは、現実世界の写真によく似た合成画像を作成する可能性を解き放った。
本稿では、これらのAI生成画像を新しいデータソースとして活用するという革新的な概念を探求する。
実際のデータとは対照的に、AI生成データには、未整合のアブリダンスやスケーラビリティなど、大きなメリットがある。
論文 参考訳(メタデータ) (2023-10-03T06:55:19Z) - AI for the Generation and Testing of Ideas Towards an AI Supported
Knowledge Development Environment [2.0305676256390934]
生成AIが人間のバイアスを排除してアイデア生成を促進する方法について論じる。
また、検索が事実、論理、文脈をどう検証できるかについても記述する。
本稿では,知識労働者のためのシステムであるジェネレーション・アンド・サーチ・テスト(Generate and Search Test)を紹介し,個人が効率的にソリューションを作成できるようにする。
論文 参考訳(メタデータ) (2023-07-17T22:17:40Z) - Understanding Place Identity with Generative AI [2.1441748927508506]
生成可能なAIモデルは、それらを識別可能な都市全体のイメージをキャプチャする可能性がある。
この研究は、構築された環境の人間の知覚を理解するために、生成的AIの能力を探求する最初の試みの一つである。
論文 参考訳(メタデータ) (2023-06-07T02:32:45Z) - DeepfakeArt Challenge: A Benchmark Dataset for Generative AI Art Forgery
and Data Poisoning Detection [79.06544706290568]
悪意ある目的のために生成的AIを使用することについて懸念が高まっている。
DeepfakeArt Challengeは、生成AIアート偽造とデータ中毒検出のための機械学習アルゴリズムの構築を支援するために設計されたベンチマークデータセットである。
論文 参考訳(メタデータ) (2023-06-02T05:11:27Z) - Constructing Dreams using Generative AI [23.344751807278044]
ジェネレーティブAIツールは、若者のための新しい、そしてアクセス可能なメディア作成形式を導入します。
彼らは、偽メディアの生成、データ保護、プライバシー、AI生成アートの所有権に関する倫理的懸念を提起している。
我々は,学生が想像する未来のアイデンティティを表現して生成的AI学習を促進する。
論文 参考訳(メタデータ) (2023-05-19T21:56:12Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - A Comprehensive Survey of AI-Generated Content (AIGC): A History of
Generative AI from GAN to ChatGPT [63.58711128819828]
ChatGPTおよびその他の生成AI(GAI)技術は、人工知能生成コンテンツ(AIGC)のカテゴリに属している。
AIGCの目標は、コンテンツ作成プロセスをより効率的かつアクセスしやすくし、高品質なコンテンツをより高速に生産できるようにすることである。
論文 参考訳(メタデータ) (2023-03-07T20:36:13Z) - Combining Generative Artificial Intelligence (AI) and the Internet:
Heading towards Evolution or Degradation? [6.62688326060372]
現実的な画像やテキストを生成するジェネレーティブAIツールは、インターネットを嵐によって奪った。
生成AIツールの今後のバージョンは、オリジナルデータとAI生成データを組み合わせたインターネットデータでトレーニングされる予定だ。
生成するAIツールの将来のバージョンは、実データとAI生成データを混合してトレーニングした場合、どのように振る舞うのか?
論文 参考訳(メタデータ) (2023-02-17T17:39:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。