論文の概要: "There Has To Be a Lot That We're Missing": Moderating AI-Generated Content on Reddit
- arxiv url: http://arxiv.org/abs/2311.12702v4
- Date: Tue, 2 Jul 2024 22:13:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 20:23:32.722192
- Title: "There Has To Be a Lot That We're Missing": Moderating AI-Generated Content on Reddit
- Title(参考訳): RedditでAI生成コンテンツをモデレートする「見逃している場所」
- Authors: Travis Lloyd, Joseph Reagle, Mor Naaman,
- Abstract要約: 我々は、AIGCによるオンラインコミュニティモデレーターの経験に焦点を当てる。
我々の研究によると、コミュニティは、イデオロギーと実践の両方の理由から、AIGCの使用を制限する規則を制定することを選択している。
この急激な技術的変化に直面して,コミュニティの自立と自己決定を支援することの重要性を強調した。
- 参考スコア(独自算出の注目度): 5.202496456440801
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative AI has begun to alter how we work, learn, communicate, and participate in online communities. How might our online communities be changed by generative AI? To start addressing this question, we focused on online community moderators' experiences with AI-generated content (AIGC). We performed fifteen in-depth, semi-structured interviews with community moderators on the social sharing site Reddit to understand their attitudes towards AIGC and how their communities are responding. Our study finds communities are choosing to enact rules restricting use of AIGC for both ideological and practical reasons. We find that, despite the absence of foolproof tools for detecting AIGC, moderators were able to somewhat limit the disruption caused by this new phenomenon by working with their communities to clarify norms about AIGC use. However, moderators found enforcing AIGC restrictions challenging, and had to rely on time-intensive and inaccurate detection heuristics in their efforts. Our results highlight the importance of supporting community autonomy and self-determination in the face of this sudden technological change, and suggest potential design solutions that may help.
- Abstract(参考訳): ジェネレーティブAIは、私たちの働き方、学び方、コミュニケーション方、オンラインコミュニティへの参加方法を変え始めている。
私たちのオンラインコミュニティは、生成AIによってどのように変えられるのか?
この問題に対処するために、我々はAIGC(AIGC)を使ったオンラインコミュニティモデレーターの経験に注目した。
われわれは、ソーシャル共有サイトRedditのコミュニティモデレーターと、AIGCに対する態度とコミュニティの反応を理解するために、詳細な、半構造化された15のインタビューを行った。
我々の研究によると、コミュニティはイデオロギーと実践の両方の理由からAIGCの使用を制限する規則を制定している。
我々は、AIGCを検知するばかげたツールがないにもかかわらず、モデレーターはAIGCの使用に関する規範を明確にするためにコミュニティと協力して、この新しい現象によって引き起こされる破壊を幾らか制限することができたことに気付いた。
しかし、モデレーターはAIGCの制限を強制することは困難であり、その努力には時間集約的で不正確な検出ヒューリスティックに頼る必要があった。
この急激な技術的変化に直面して、コミュニティの自主性と自己決定を支援することの重要性を強調し、潜在的な設計ソリューションを提案する。
関連論文リスト
- AI Rules? Characterizing Reddit Community Policies Towards AI-Generated Content [7.978143550070664]
30万件以上の公開サブレディットのメタデータとコミュニティルールを収集しました。
既存の文献と、AIルールに特有の新しい分類基準に基づいて、サブレディットとAIルールをラベル付けしました。
我々の研究結果は、AIに関する様々な懸念が、異なるコミュニティの文脈で出現したことを示している。
論文 参考訳(メタデータ) (2024-10-15T15:31:41Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Examining the Prevalence and Dynamics of AI-Generated Media in Art Subreddits [13.343255875002459]
AI生成コンテンツがRedditのアート関連コミュニティに与える影響について検討する。
私たちは、これらのコミュニティがAIによって透明に作成する画像ベースの投稿や、生成的AIを使用する著者を疑うコミュニティのコメントを見てみます。
我々は、AIコンテンツが新参者にとってより簡単に利用でき、コミュニティのルールに従って参加を増やすのに役立つことを示している。
論文 参考訳(メタデータ) (2024-10-09T17:41:13Z) - Challenges and Remedies to Privacy and Security in AIGC: Exploring the
Potential of Privacy Computing, Blockchain, and Beyond [17.904983070032884]
本稿では,AIGCの概念,分類,基礎技術について概観する。
複数の観点からAIGCが直面するプライバシーとセキュリティの課題について論じる。
論文 参考訳(メタデータ) (2023-06-01T07:49:22Z) - A Survey on ChatGPT: AI-Generated Contents, Challenges, and Solutions [19.50785795365068]
AIGCは、生成可能な大規模なAIアルゴリズムを使用して、人間が高速で低コストで、大規模で高品質で、人間に似たコンテンツを作成するのを支援する。
本稿では,作業原則,セキュリティとプライバシの脅威,最先端のソリューション,AIGCパラダイムの今後の課題について,詳細な調査を行う。
論文 参考訳(メタデータ) (2023-05-25T15:09:11Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - A Complete Survey on Generative AI (AIGC): Is ChatGPT from GPT-4 to
GPT-5 All You Need? [112.12974778019304]
生成AI(AIGC、つまりAI生成コンテンツ)は、テキスト、画像、その他を分析、作成する能力により、あらゆる場所で話題を呼んだ。
純粋な分析から創造へと移行するAIの時代において、ChatGPTは最新の言語モデルであるGPT-4とともに、多くのAIGCタスクからなるツールである。
本研究は,テキスト,画像,ビデオ,3Dコンテンツなど,出力タイプに基づいたAIGCタスクの技術的開発に焦点を当てている。
論文 参考訳(メタデータ) (2023-03-21T10:09:47Z) - A Pathway Towards Responsible AI Generated Content [68.13835802977125]
我々は、AIGCの健全な開発と展開を妨げかねない8つの主要な懸念に焦点を当てている。
これらの懸念には、(1)プライバシー、(2)バイアス、毒性、誤情報、(3)知的財産(IP)、(4)堅牢性、(5)オープンソースと説明、(6)技術の乱用、(7)同意、信用、補償、(8)環境からのリスクが含まれる。
論文 参考訳(メタデータ) (2023-03-02T14:58:40Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Mediating Community-AI Interaction through Situated Explanation: The
Case of AI-Led Moderation [32.50902508512016]
私たちは、コミュニティの共有価値、規範、知識、実践における説明の位置づけを理論化します。
次に、AI主導のモデレーションのケーススタディを示し、コミュニティメンバーがAI主導の意思決定の説明をまとめて開発する。
論文 参考訳(メタデータ) (2020-08-19T00:13:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。