論文の概要: "Sora is Incredible and Scary": Emerging Governance Challenges of Text-to-Video Generative AI Models
- arxiv url: http://arxiv.org/abs/2406.11859v1
- Date: Wed, 10 Apr 2024 02:03:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 07:30:49.525398
- Title: "Sora is Incredible and Scary": Emerging Governance Challenges of Text-to-Video Generative AI Models
- Title(参考訳): Sora is Incredible and Scary":テキストからビデオ生成AIモデルの新たなガバナンス課題
- Authors: Kyrie Zhixuan Zhou, Abhinav Choudhry, Ece Gumusel, Madelyn Rose Sanfilippo,
- Abstract要約: 我々は,Soraの統合に対する人々の認識と懸念を明らかにすることを目的とした質的なソーシャルメディア分析を報告する。
コンテンツ制作関連産業に対するSoraの影響について,人々が最も懸念していることが判明した。
潜在的な規制ソリューションには、AIコンテンツの法律で強化されたラベル付けと、一般向けのAIリテラシー教育が含まれていた。
- 参考スコア(独自算出の注目度): 1.4999444543328293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text-to-video generative AI models such as Sora OpenAI have the potential to disrupt multiple industries. In this paper, we report a qualitative social media analysis aiming to uncover people's perceived impact of and concerns about Sora's integration. We collected and analyzed comments (N=292) under popular posts about Sora-generated videos, comparison between Sora videos and Midjourney images, and artists' complaints about copyright infringement by Generative AI. We found that people were most concerned about Sora's impact on content creation-related industries. Emerging governance challenges included the for-profit nature of OpenAI, the blurred boundaries between real and fake content, human autonomy, data privacy, copyright issues, and environmental impact. Potential regulatory solutions proposed by people included law-enforced labeling of AI content and AI literacy education for the public. Based on the findings, we discuss the importance of gauging people's tech perceptions early and propose policy recommendations to regulate Sora before its public release.
- Abstract(参考訳): Sora OpenAIのようなテキストからビデオへの生成AIモデルは、複数の産業をディスラプトする可能性がある。
本稿では,Soraの統合に対する人々の認識と懸念を明らかにすることを目的とした質的なソーシャルメディア分析を報告する。
我々は、Sora生成ビデオ、SoraビデオとMidjourney画像の比較、およびGenerative AIによる著作権侵害に対するアーティストの苦情に関する一般的な投稿に基づいてコメント(N=292)を収集し、分析した。
コンテンツ制作関連産業に対するSoraの影響について,人々が最も懸念していることが判明した。
新たなガバナンス課題には、OpenAIの営利性、リアルコンテンツとフェイクコンテンツの境界がぼやけたこと、人間の自律性、データプライバシ、著作権問題、環境への影響などがあった。
人々が提案する潜在的規制ソリューションには、AIコンテンツの法律で強化されたラベル付けと、一般向けのAIリテラシー教育が含まれる。
本研究は,早期に技術の認知を喚起することの重要性を考察し,公開前にソラを規制する政策勧告を提案する。
関連論文リスト
- Examining the Prevalence and Dynamics of AI-Generated Media in Art Subreddits [13.343255875002459]
AI生成コンテンツがRedditのアート関連コミュニティに与える影響について検討する。
私たちは、これらのコミュニティがAIによって透明に作成する画像ベースの投稿や、生成的AIを使用する著者を疑うコミュニティのコメントを見てみます。
我々は、AIコンテンツが新参者にとってより簡単に利用でき、コミュニティのルールに従って参加を増やすのに役立つことを示している。
論文 参考訳(メタデータ) (2024-10-09T17:41:13Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Evaluating and Mitigating IP Infringement in Visual Generative AI [54.24196167576133]
最先端のビジュアル生成モデルは、知的財産権によって保護されたキャラクターと著しく類似したコンテンツを生成することができる。
これは、入力プロンプトが文字の名前を含む場合や、その特性に関する記述的な詳細を含む場合に発生する。
我々は、潜在的に侵害される可能性のあるコンテンツを特定し、IP侵害を防止するための修正された生成パラダイムを開発する。
論文 参考訳(メタデータ) (2024-06-07T06:14:18Z) - Analysing the Public Discourse around OpenAI's Text-To-Video Model 'Sora' using Topic Modeling [0.0]
本研究の目的は,1,827件のRedditコメントコーパスでトピックモデリング分析を行うことで,ソラを取り巻く支配的なテーマや物語を明らかにすることである。
コメントは2024年2月のソラの発表から2ヶ月にわたって収集された。
結果は、産業や雇用、公共の感情や倫理的懸念、クリエイティブな応用、メディアやエンターテイメント分野のユースケースに対するソラの潜在的影響に関する顕著な物語を浮き彫りにした。
論文 参考訳(メタデータ) (2024-05-30T01:55:30Z) - From Sora What We Can See: A Survey of Text-to-Video Generation [10.204414498390575]
OpenAIが開発したSoraは、ミニレベルの世界シミュレーション能力を持つ。
その顕著な成功にもかかわらず、Soraは解決すべきさまざまな障害に直面している。
論文 参考訳(メタデータ) (2024-05-17T10:09:09Z) - Sora OpenAI's Prelude: Social Media Perspectives on Sora OpenAI and the Future of AI Video Generation [30.556463355261695]
本研究では, Reddit 上でソーシャルメディア上での議論を通じて, 先駆的なGen-AI ビデオ生成ツールである Sora OpenAI に対する一般大衆の認識を調査した。
この分析は、コンテンツ制作のポジティブな変化を予測し、Soraがビデオマーケティングを民主化し、ゲーム開発を革新すると予想している。
ディープフェイクと偽情報の可能性には懸念があり、偽情報と偏見に対処する戦略の必要性が強調されている。
論文 参考訳(メタデータ) (2024-03-02T00:16:22Z) - Sora: A Review on Background, Technology, Limitations, and Opportunities of Large Vision Models [59.54172719450617]
Sora(ソラ)は、OpenAIが2024年2月にリリースした、テキストからビデオへの生成AIモデルである。
本稿では,モデルの背景,関連する技術,応用,残る課題,今後の方向性について概説する。
論文 参考訳(メタデータ) (2024-02-27T03:30:58Z) - DeepfakeArt Challenge: A Benchmark Dataset for Generative AI Art Forgery and Data Poisoning Detection [57.51313366337142]
悪意ある目的のために生成的AIを使用することについて懸念が高まっている。
生成AIを用いた視覚コンテンツ合成の領域では、画像偽造とデータ中毒が重要な関心事となっている。
DeepfakeArt Challenge(ディープフェイクアートチャレンジ)は、AIアートのジェネレーションとデータ中毒検出のための機械学習アルゴリズムの構築を支援するために設計された、大規模なチャレンジベンチマークデータセットである。
論文 参考訳(メタデータ) (2023-06-02T05:11:27Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - A Pathway Towards Responsible AI Generated Content [68.13835802977125]
我々は、AIGCの健全な開発と展開を妨げかねない8つの主要な懸念に焦点を当てている。
これらの懸念には、(1)プライバシー、(2)バイアス、毒性、誤情報、(3)知的財産(IP)、(4)堅牢性、(5)オープンソースと説明、(6)技術の乱用、(7)同意、信用、補償、(8)環境からのリスクが含まれる。
論文 参考訳(メタデータ) (2023-03-02T14:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。