論文の概要: "Sora is Incredible and Scary": Emerging Governance Challenges of Text-to-Video Generative AI Models
- arxiv url: http://arxiv.org/abs/2406.11859v1
- Date: Wed, 10 Apr 2024 02:03:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 07:30:49.525398
- Title: "Sora is Incredible and Scary": Emerging Governance Challenges of Text-to-Video Generative AI Models
- Title(参考訳): Sora is Incredible and Scary":テキストからビデオ生成AIモデルの新たなガバナンス課題
- Authors: Kyrie Zhixuan Zhou, Abhinav Choudhry, Ece Gumusel, Madelyn Rose Sanfilippo,
- Abstract要約: 我々は,Soraの統合に対する人々の認識と懸念を明らかにすることを目的とした質的なソーシャルメディア分析を報告する。
コンテンツ制作関連産業に対するSoraの影響について,人々が最も懸念していることが判明した。
潜在的な規制ソリューションには、AIコンテンツの法律で強化されたラベル付けと、一般向けのAIリテラシー教育が含まれていた。
- 参考スコア(独自算出の注目度): 1.4999444543328293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text-to-video generative AI models such as Sora OpenAI have the potential to disrupt multiple industries. In this paper, we report a qualitative social media analysis aiming to uncover people's perceived impact of and concerns about Sora's integration. We collected and analyzed comments (N=292) under popular posts about Sora-generated videos, comparison between Sora videos and Midjourney images, and artists' complaints about copyright infringement by Generative AI. We found that people were most concerned about Sora's impact on content creation-related industries. Emerging governance challenges included the for-profit nature of OpenAI, the blurred boundaries between real and fake content, human autonomy, data privacy, copyright issues, and environmental impact. Potential regulatory solutions proposed by people included law-enforced labeling of AI content and AI literacy education for the public. Based on the findings, we discuss the importance of gauging people's tech perceptions early and propose policy recommendations to regulate Sora before its public release.
- Abstract(参考訳): Sora OpenAIのようなテキストからビデオへの生成AIモデルは、複数の産業をディスラプトする可能性がある。
本稿では,Soraの統合に対する人々の認識と懸念を明らかにすることを目的とした質的なソーシャルメディア分析を報告する。
我々は、Sora生成ビデオ、SoraビデオとMidjourney画像の比較、およびGenerative AIによる著作権侵害に対するアーティストの苦情に関する一般的な投稿に基づいてコメント(N=292)を収集し、分析した。
コンテンツ制作関連産業に対するSoraの影響について,人々が最も懸念していることが判明した。
新たなガバナンス課題には、OpenAIの営利性、リアルコンテンツとフェイクコンテンツの境界がぼやけたこと、人間の自律性、データプライバシ、著作権問題、環境への影響などがあった。
人々が提案する潜在的規制ソリューションには、AIコンテンツの法律で強化されたラベル付けと、一般向けのAIリテラシー教育が含まれる。
本研究は,早期に技術の認知を喚起することの重要性を考察し,公開前にソラを規制する政策勧告を提案する。
関連論文リスト
- Mapping AI Ethics Narratives: Evidence from Twitter Discourse Between 2015 and 2022 [6.518657832967228]
この論文でTwitterは、AI倫理に関する論議を探求するオンライン公開の場として選ばれている。
研究フレームワークは、Twitter上のAI倫理に関する言論を一貫性のある読みやすい物語に変換する方法を示すために提案されている。
論文 参考訳(メタデータ) (2024-06-20T09:08:44Z) - Evaluating and Mitigating IP Infringement in Visual Generative AI [54.24196167576133]
最先端のビジュアル生成モデルは、知的財産権によって保護されたキャラクターと著しく類似したコンテンツを生成することができる。
これは、入力プロンプトが文字の名前を含む場合や、その特性に関する記述的な詳細を含む場合に発生する。
我々は、潜在的に侵害される可能性のあるコンテンツを特定し、IP侵害を防止するための修正された生成パラダイムを開発する。
論文 参考訳(メタデータ) (2024-06-07T06:14:18Z) - Analysing the Public Discourse around OpenAI's Text-To-Video Model 'Sora' using Topic Modeling [0.0]
本研究の目的は,1,827件のRedditコメントコーパスでトピックモデリング分析を行うことで,ソラを取り巻く支配的なテーマや物語を明らかにすることである。
コメントは2024年2月のソラの発表から2ヶ月にわたって収集された。
結果は、産業や雇用、公共の感情や倫理的懸念、クリエイティブな応用、メディアやエンターテイメント分野のユースケースに対するソラの潜在的影響に関する顕著な物語を浮き彫りにした。
論文 参考訳(メタデータ) (2024-05-30T01:55:30Z) - From Sora What We Can See: A Survey of Text-to-Video Generation [10.204414498390575]
OpenAIが開発したSoraは、ミニレベルの世界シミュレーション能力を持つ。
その顕著な成功にもかかわらず、Soraは解決すべきさまざまな障害に直面している。
論文 参考訳(メタデータ) (2024-05-17T10:09:09Z) - Sora OpenAI's Prelude: Social Media Perspectives on Sora OpenAI and the Future of AI Video Generation [30.556463355261695]
本研究では, Reddit 上でソーシャルメディア上での議論を通じて, 先駆的なGen-AI ビデオ生成ツールである Sora OpenAI に対する一般大衆の認識を調査した。
この分析は、コンテンツ制作のポジティブな変化を予測し、Soraがビデオマーケティングを民主化し、ゲーム開発を革新すると予想している。
ディープフェイクと偽情報の可能性には懸念があり、偽情報と偏見に対処する戦略の必要性が強調されている。
論文 参考訳(メタデータ) (2024-03-02T00:16:22Z) - Sora: A Review on Background, Technology, Limitations, and Opportunities of Large Vision Models [59.54172719450617]
Sora(ソラ)は、OpenAIが2024年2月にリリースした、テキストからビデオへの生成AIモデルである。
本稿では,モデルの背景,関連する技術,応用,残る課題,今後の方向性について概説する。
論文 参考訳(メタデータ) (2024-02-27T03:30:58Z) - DeepfakeArt Challenge: A Benchmark Dataset for Generative AI Art Forgery and Data Poisoning Detection [57.51313366337142]
悪意ある目的のために生成的AIを使用することについて懸念が高まっている。
生成AIを用いた視覚コンテンツ合成の領域では、画像偽造とデータ中毒が重要な関心事となっている。
DeepfakeArt Challenge(ディープフェイクアートチャレンジ)は、AIアートのジェネレーションとデータ中毒検出のための機械学習アルゴリズムの構築を支援するために設計された、大規模なチャレンジベンチマークデータセットである。
論文 参考訳(メタデータ) (2023-06-02T05:11:27Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - A Pathway Towards Responsible AI Generated Content [68.13835802977125]
我々は、AIGCの健全な開発と展開を妨げかねない8つの主要な懸念に焦点を当てている。
これらの懸念には、(1)プライバシー、(2)バイアス、毒性、誤情報、(3)知的財産(IP)、(4)堅牢性、(5)オープンソースと説明、(6)技術の乱用、(7)同意、信用、補償、(8)環境からのリスクが含まれる。
論文 参考訳(メタデータ) (2023-03-02T14:58:40Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。