論文の概要: "There Has To Be a Lot That We're Missing": Moderating AI-Generated
Content on Reddit
- arxiv url: http://arxiv.org/abs/2311.12702v3
- Date: Tue, 9 Jan 2024 19:58:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-11 16:53:20.044022
- Title: "There Has To Be a Lot That We're Missing": Moderating AI-Generated
Content on Reddit
- Title(参考訳): RedditでAI生成コンテンツをモデレートする「見逃している場所」
- Authors: Travis Lloyd, Joseph Reagle, Mor Naaman
- Abstract要約: ジェネレーティブAIは、私たちの働き方、学習方法、コミュニケーション方法、オンラインコミュニティへの参加方法の破壊を脅かす。
AIGC(AIGC)によるRedditモデレーターの課題を理解するための質的研究を行った。
我々は、AIGCの経験について、サブレディットモデレーターとの詳細な半構造化インタビューを15回行った。
- 参考スコア(独自算出の注目度): 5.847084649531299
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative AI threatens to disrupt how we work, learn, communicate, and
participate in online communities. We performed a qualitative interview study
to understand how moderators of online communities on the social sharing site
Reddit are challenged by AI-generated content (AIGC) and how they are adapting.
We conducted fifteen in-depth, semi-structured interviews with subreddit
moderators about their experiences with AIGC. Though our participants see both
legitimate and illegitimate motivations for using AIGC, on the whole they view
it as detrimental to their communities, with a level of concern that is
dependent on the purpose and size of their subreddits. Moderators reported
developing rules and using a variety of strategies that may help communities
prevent or curb AIGC, but without foolproof detection tools, enforcement is
challenging and relies on heuristics. AIGC poses a unique threat to online
communities who value authenticity, in that even well-intentioned community
members may inadvertently cause disruption. Overall, for online communities,
the threat of Generative AI is not speculative: the disruption has already
begun.
- Abstract(参考訳): 生成aiは、オンラインコミュニティの働き方、学び、コミュニケーション、参加を妨害する恐れがある。
われわれは、ソーシャル共有サイトRedditのオンラインコミュニティのモデレーターがAIGC(AIGC)にどう挑戦されているか、どのように適応しているかを理解するための質的なインタビュー研究を行った。
我々はAIGCの経験について15回の半構造化インタビューを行った。
参加者はAIGCの使用に対する合法的動機と非合法的動機の両方を認識していますが、全体としては、サブレディットの目的とサイズに依存したレベルの懸念をもって、コミュニティに有害であると考えています。
モデレーターは、aigcの予防や抑制に役立つ様々な戦略を使用してルールを開発していると報告したが、愚かな検出ツールがなければ、強制は困難であり、ヒューリスティックスに依存している。
AIGCは、信頼を尊重するオンラインコミュニティに対してユニークな脅威となり、十分に意図されたコミュニティメンバーでさえ、必然的に混乱を引き起こす可能性がある。
全体として、オンラインコミュニティにとって、生成AIの脅威は投機的ではない。
関連論文リスト
- AI Rules? Characterizing Reddit Community Policies Towards AI-Generated Content [7.978143550070664]
30万件以上の公開サブレディットのメタデータとコミュニティルールを収集しました。
既存の文献と、AIルールに特有の新しい分類基準に基づいて、サブレディットとAIルールをラベル付けしました。
我々の研究結果は、AIに関する様々な懸念が、異なるコミュニティの文脈で出現したことを示している。
論文 参考訳(メタデータ) (2024-10-15T15:31:41Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Examining the Prevalence and Dynamics of AI-Generated Media in Art Subreddits [13.343255875002459]
AI生成コンテンツがRedditのアート関連コミュニティに与える影響について検討する。
私たちは、これらのコミュニティがAIによって透明に作成する画像ベースの投稿や、生成的AIを使用する著者を疑うコミュニティのコメントを見てみます。
我々は、AIコンテンツが新参者にとってより簡単に利用でき、コミュニティのルールに従って参加を増やすのに役立つことを示している。
論文 参考訳(メタデータ) (2024-10-09T17:41:13Z) - Challenges and Remedies to Privacy and Security in AIGC: Exploring the
Potential of Privacy Computing, Blockchain, and Beyond [17.904983070032884]
本稿では,AIGCの概念,分類,基礎技術について概観する。
複数の観点からAIGCが直面するプライバシーとセキュリティの課題について論じる。
論文 参考訳(メタデータ) (2023-06-01T07:49:22Z) - A Survey on ChatGPT: AI-Generated Contents, Challenges, and Solutions [19.50785795365068]
AIGCは、生成可能な大規模なAIアルゴリズムを使用して、人間が高速で低コストで、大規模で高品質で、人間に似たコンテンツを作成するのを支援する。
本稿では,作業原則,セキュリティとプライバシの脅威,最先端のソリューション,AIGCパラダイムの今後の課題について,詳細な調査を行う。
論文 参考訳(メタデータ) (2023-05-25T15:09:11Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - A Complete Survey on Generative AI (AIGC): Is ChatGPT from GPT-4 to
GPT-5 All You Need? [112.12974778019304]
生成AI(AIGC、つまりAI生成コンテンツ)は、テキスト、画像、その他を分析、作成する能力により、あらゆる場所で話題を呼んだ。
純粋な分析から創造へと移行するAIの時代において、ChatGPTは最新の言語モデルであるGPT-4とともに、多くのAIGCタスクからなるツールである。
本研究は,テキスト,画像,ビデオ,3Dコンテンツなど,出力タイプに基づいたAIGCタスクの技術的開発に焦点を当てている。
論文 参考訳(メタデータ) (2023-03-21T10:09:47Z) - A Pathway Towards Responsible AI Generated Content [68.13835802977125]
我々は、AIGCの健全な開発と展開を妨げかねない8つの主要な懸念に焦点を当てている。
これらの懸念には、(1)プライバシー、(2)バイアス、毒性、誤情報、(3)知的財産(IP)、(4)堅牢性、(5)オープンソースと説明、(6)技術の乱用、(7)同意、信用、補償、(8)環境からのリスクが含まれる。
論文 参考訳(メタデータ) (2023-03-02T14:58:40Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Mediating Community-AI Interaction through Situated Explanation: The
Case of AI-Led Moderation [32.50902508512016]
私たちは、コミュニティの共有価値、規範、知識、実践における説明の位置づけを理論化します。
次に、AI主導のモデレーションのケーススタディを示し、コミュニティメンバーがAI主導の意思決定の説明をまとめて開発する。
論文 参考訳(メタデータ) (2020-08-19T00:13:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。