論文の概要: "There Has To Be a Lot That We're Missing": Moderating AI-Generated Content on Reddit
- arxiv url: http://arxiv.org/abs/2311.12702v6
- Date: Wed, 18 Dec 2024 16:58:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 16:46:19.109386
- Title: "There Has To Be a Lot That We're Missing": Moderating AI-Generated Content on Reddit
- Title(参考訳): RedditでAI生成コンテンツをモデレートする「見逃している場所」
- Authors: Travis Lloyd, Joseph Reagle, Mor Naaman,
- Abstract要約: ジェネレーティブAIは、私たちの働き方、学び方、コミュニケーション方、オンラインコミュニティへの参加方法を変え始めている。
我々は、AIGCによるオンラインコミュニティモデレーターの経験に焦点を当てる。
我々の研究によると、AIGCに関するルールは、コンテンツ品質、社会的ダイナミクス、ガバナンスの課題に対する懸念によって動機づけられている。
我々は、AIGCを検知するばかげたツールがないにもかかわらず、モデレーターは、コミュニティと協力して規範を明確にすることで、この新しい現象によって引き起こされる混乱を幾らか抑制することができた。
- 参考スコア(独自算出の注目度): 5.202496456440801
- License:
- Abstract: Generative AI has begun to alter how we work, learn, communicate, and participate in online communities. How might our online communities be changed by generative AI? To start addressing this question, we focused on online community moderators' experiences with AI-generated content (AIGC). We performed fifteen in-depth, semi-structured interviews with moderators of Reddit communities that restrict the use of AIGC. Our study finds that rules about AIGC are motivated by concerns about content quality, social dynamics, and governance challenges. Moderators fear that, without such rules, AIGC threatens to reduce their communities' utility and social value. We find that, despite the absence of foolproof tools for detecting AIGC, moderators were able to somewhat limit the disruption caused by this new phenomenon by working with their communities to clarify norms. However, moderators found enforcing AIGC restrictions challenging, and had to rely on time-intensive and inaccurate detection heuristics in their efforts. Our results highlight the importance of supporting community autonomy and self-determination in the face of this sudden technological change, and suggest potential design solutions that may help.
- Abstract(参考訳): ジェネレーティブAIは、私たちの働き方、学び方、コミュニケーション方、オンラインコミュニティへの参加方法を変え始めている。
私たちのオンラインコミュニティは、生成AIによってどのように変えられるのか?
この問題に対処するために、我々はAIGC(AIGC)を使ったオンラインコミュニティモデレーターの経験に注目した。
我々は、AIGCの使用を制限するRedditコミュニティのモデレーターたちと、深く、半構造化されたインタビューを15回行った。
我々の研究によると、AIGCに関するルールは、コンテンツ品質、社会的ダイナミクス、ガバナンスの課題に対する懸念によって動機づけられている。
モデレーターは、そのようなルールがなければ、AIGCがコミュニティの実用性と社会的価値を減らすと脅かすことを恐れている。
我々は、AIGCを検知するばかげたツールがないにもかかわらず、モデレーターは、コミュニティと協力して規範を明確にすることで、この新しい現象によって引き起こされる混乱を幾らか抑制することができた。
しかし、モデレーターはAIGCの制限を強制することは困難であり、その努力には時間集約的で不正確な検出ヒューリスティックに頼る必要があった。
この急激な技術的変化に直面して、コミュニティの自主性と自己決定を支援することの重要性を強調し、潜在的な設計ソリューションを提案する。
関連論文リスト
- AI Rules? Characterizing Reddit Community Policies Towards AI-Generated Content [7.978143550070664]
30万件以上の公開サブレディットのメタデータとコミュニティルールを収集しました。
既存の文献と、AIルールに特有の新しい分類基準に基づいて、サブレディットとAIルールをラベル付けしました。
我々の研究結果は、AIに関する様々な懸念が、異なるコミュニティの文脈で出現したことを示している。
論文 参考訳(メタデータ) (2024-10-15T15:31:41Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Examining the Prevalence and Dynamics of AI-Generated Media in Art Subreddits [13.343255875002459]
AI生成コンテンツがRedditのアート関連コミュニティに与える影響について検討する。
私たちは、これらのコミュニティがAIによって透明に作成する画像ベースの投稿や、生成的AIを使用する著者を疑うコミュニティのコメントを見てみます。
我々は、AIコンテンツが新参者にとってより簡単に利用でき、コミュニティのルールに従って参加を増やすのに役立つことを示している。
論文 参考訳(メタデータ) (2024-10-09T17:41:13Z) - Challenges and Remedies to Privacy and Security in AIGC: Exploring the
Potential of Privacy Computing, Blockchain, and Beyond [17.904983070032884]
本稿では,AIGCの概念,分類,基礎技術について概観する。
複数の観点からAIGCが直面するプライバシーとセキュリティの課題について論じる。
論文 参考訳(メタデータ) (2023-06-01T07:49:22Z) - A Survey on ChatGPT: AI-Generated Contents, Challenges, and Solutions [19.50785795365068]
AIGCは、生成可能な大規模なAIアルゴリズムを使用して、人間が高速で低コストで、大規模で高品質で、人間に似たコンテンツを作成するのを支援する。
本稿では,作業原則,セキュリティとプライバシの脅威,最先端のソリューション,AIGCパラダイムの今後の課題について,詳細な調査を行う。
論文 参考訳(メタデータ) (2023-05-25T15:09:11Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - A Complete Survey on Generative AI (AIGC): Is ChatGPT from GPT-4 to
GPT-5 All You Need? [112.12974778019304]
生成AI(AIGC、つまりAI生成コンテンツ)は、テキスト、画像、その他を分析、作成する能力により、あらゆる場所で話題を呼んだ。
純粋な分析から創造へと移行するAIの時代において、ChatGPTは最新の言語モデルであるGPT-4とともに、多くのAIGCタスクからなるツールである。
本研究は,テキスト,画像,ビデオ,3Dコンテンツなど,出力タイプに基づいたAIGCタスクの技術的開発に焦点を当てている。
論文 参考訳(メタデータ) (2023-03-21T10:09:47Z) - A Pathway Towards Responsible AI Generated Content [68.13835802977125]
我々は、AIGCの健全な開発と展開を妨げかねない8つの主要な懸念に焦点を当てている。
これらの懸念には、(1)プライバシー、(2)バイアス、毒性、誤情報、(3)知的財産(IP)、(4)堅牢性、(5)オープンソースと説明、(6)技術の乱用、(7)同意、信用、補償、(8)環境からのリスクが含まれる。
論文 参考訳(メタデータ) (2023-03-02T14:58:40Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Mediating Community-AI Interaction through Situated Explanation: The
Case of AI-Led Moderation [32.50902508512016]
私たちは、コミュニティの共有価値、規範、知識、実践における説明の位置づけを理論化します。
次に、AI主導のモデレーションのケーススタディを示し、コミュニティメンバーがAI主導の意思決定の説明をまとめて開発する。
論文 参考訳(メタデータ) (2020-08-19T00:13:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。