論文の概要: User Negotiations of Authenticity, Ownership, and Governance on AI-Generated Video Platforms: Evidence from Sora
- arxiv url: http://arxiv.org/abs/2512.05519v1
- Date: Fri, 05 Dec 2025 08:23:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.955997
- Title: User Negotiations of Authenticity, Ownership, and Governance on AI-Generated Video Platforms: Evidence from Sora
- Title(参考訳): AI生成ビデオプラットフォームにおける認証,オーナシップ,ガバナンスのユーザネゴシエーション - Sora氏の証拠
- Authors: Bohui Shen, Shrikar Bhatta, Alex Ireebanije, Zexuan Liu, Abhinav Choudhry, Ece Gumusel, Kyrie Zhixuan Zhou,
- Abstract要約: 本研究では,OpenAIのSora上でのAI生成ビデオの理解について検討する。
ユーザが認証、著者権、プラットフォームガバナンスをどのように交渉するかを特徴付ける4つのダイナミクスを特定します。
- 参考スコア(独自算出の注目度): 3.6795902817860693
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As AI-generated video platforms rapidly advance, ethical challenges such as copyright infringement emerge. This study examines how users make sense of AI-generated videos on OpenAI's Sora by conducting a qualitative content analysis of user comments. Through a thematic analysis, we identified four dynamics that characterize how users negotiate authenticity, authorship, and platform governance on Sora. First, users acted as critical evaluators of realism, assessing micro-details such as lighting, shadows, fluid motion, and physics to judge whether AI-generated scenes could plausibly exist. Second, users increasingly shifted from passive viewers to active creators, expressing curiosity about prompts, techniques, and creative processes. Text prompts were perceived as intellectual property, generating concerns about plagiarism and remixing norms. Third, users reported blurred boundaries between real and synthetic media, worried about misinformation, and even questioned the authenticity of other commenters, suspecting bot-generated engagement. Fourth, users contested platform governance: some perceived moderation as inconsistent or opaque, while others shared tactics for evading prompt censorship through misspellings, alternative phrasing, emojis, or other languages. Despite this, many users also enforced ethical norms by discouraging the misuse of real people's images or disrespectful content. Together, these patterns highlighted how AI-mediated platforms complicate notions of reality, creativity, and rule-making in emerging digital ecosystems. Based on the findings, we discuss governance challenges in Sora and how user negotiations inform future platform governance.
- Abstract(参考訳): AIが生成するビデオプラットフォームが急速に進歩するにつれて、著作権侵害のような倫理的課題が出現する。
本研究は,ユーザコメントの質的コンテンツ分析を行うことにより,OpenAIのSora上でAI生成ビデオを理解する方法について検討する。
テーマ分析により、ユーザがSora上で認証、著者シップ、プラットフォームガバナンスをどのように交渉するかを特徴付ける4つのダイナミクスを特定した。
まず、ユーザーは現実主義の批判的評価者として行動し、照明、影、流体運動、物理学などの微妙な詳細を評価し、AI生成シーンが存在するかどうかを判断した。
第2に、ユーザは受動的視聴者からアクティブなクリエーターへとシフトし、プロンプト、テクニック、クリエイティブなプロセスに関する好奇心を表現している。
テキストプロンプトは知的財産と見なされ、盗作主義やリミックス規範への懸念を引き起こした。
第3に、ユーザーはリアルメディアと合成メディアの境界がぼやけたことを報告し、誤情報を心配し、ボットが生成したエンゲージメントを疑って他のコメントの真偽を疑った。
第4に、ユーザはプラットフォームガバナンスに異議を唱えた: モデレーションを一貫性ないし不透明とみなす者もいれば、ミススペルや代替句、絵文字、その他の言語による迅速な検閲を回避するための戦術を共有している者もいる。
それにもかかわらず、現実の人々のイメージや不敬な内容の誤用を回避して倫理的規範を強制するユーザも多かった。
これらのパターンは、AIを介するプラットフォームが、新興デジタルエコシステムにおける現実、創造性、ルール作成の概念をいかに複雑にするかを強調した。
この結果に基づき、Soraにおけるガバナンスの課題と、今後のプラットフォームガバナンスに対するユーザの交渉方法について論じる。
関連論文リスト
- A New Digital Divide? Coder Worldviews, the Slop Economy, and Democracy in the Age of AI [0.0]
シリコンバレーのソフトウェア開発者に関する最初の調査を紹介する。
その結果、ほとんどの開発者は自分たちの製品が市民の自由と政治的言論に影響を与えることを認識していることがわかった。
本研究は、インターネットアクセスではなく、情報品質の新たなデジタルディビジョンの文脈において、これらの知見を考察する。
論文 参考訳(メタデータ) (2025-10-06T12:32:37Z) - To Explain Or Not To Explain: An Empirical Investigation Of AI-Based Recommendations On Social Media Platforms [0.1274452325287335]
本稿では,エンドユーザーの視点からソーシャルメディアレコメンデーションについて検討する。
参加者は,ソーシャルメディアコンテンツの提案,理解性,説明可能性について質問した。
我々の分析によると、ユーザーはよく知らないコンテンツに遭遇するたびに説明を必要としている。
論文 参考訳(メタデータ) (2025-08-13T01:05:49Z) - Analyzing User Perceptions of Large Language Models (LLMs) on Reddit: Sentiment and Topic Modeling of ChatGPT and DeepSeek Discussions [0.0]
本研究の目的は、感情モデルとトピックモデリングを用いて、ChatGPTとDeepSeekに関するRedditの議論を分析することである。
レポートは、ユーザーがこのテクノロジーを信じているかどうか、そして彼らが未来と見なしているものについて言及している。
論文 参考訳(メタデータ) (2025-02-22T17:00:42Z) - A Comprehensive Content Verification System for ensuring Digital Integrity in the Age of Deep Fakes [0.0]
本稿では,デジタルランドスケープ全体にわたる投稿やストーリーとして共有される画像やビデオの認証を目的とした,コンテンツ検証システムについて論じる。
このシステムによって、個人やインフルエンサーはデジタルフットプリントの正当性を検証することができ、相互接続された世界での評判を守ることができる。
論文 参考訳(メタデータ) (2024-11-29T14:47:47Z) - "Sora is Incredible and Scary": Emerging Governance Challenges of Text-to-Video Generative AI Models [1.4999444543328293]
我々は,Soraの統合に対する人々の認識と懸念を明らかにすることを目的とした質的なソーシャルメディア分析を報告する。
コンテンツ制作関連産業に対するSoraの影響について,人々が最も懸念していることが判明した。
潜在的な規制ソリューションには、AIコンテンツの法律で強化されたラベル付けと、一般向けのAIリテラシー教育が含まれていた。
論文 参考訳(メタデータ) (2024-04-10T02:03:59Z) - The Face of Populism: Examining Differences in Facial Emotional Expressions of Political Leaders Using Machine Learning [50.24983453990065]
私たちは15カ国の政治指導者の220本のYouTubeビデオのサンプルをディープラーニングで処理しています。
ポピュリスト・レトリックの度合いが異なるリーダー群間での負の感情の平均スコアの統計的に有意な差を観察した。
論文 参考訳(メタデータ) (2023-04-19T18:32:49Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。