論文の概要: AI Rules? Characterizing Reddit Community Policies Towards AI-Generated Content
- arxiv url: http://arxiv.org/abs/2410.11698v1
- Date: Tue, 15 Oct 2024 15:31:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 14:02:56.443870
- Title: AI Rules? Characterizing Reddit Community Policies Towards AI-Generated Content
- Title(参考訳): AIルール? RedditコミュニティポリシーをAI生成コンテンツに特徴付ける
- Authors: Travis Lloyd, Jennah Gosciak, Tung Nguyen, Mor Naaman,
- Abstract要約: 30万件以上の公開サブレディットのメタデータとコミュニティルールを収集しました。
既存の文献と、AIルールに特有の新しい分類基準に基づいて、サブレディットとAIルールをラベル付けしました。
我々の研究結果は、AIに関する様々な懸念が、異なるコミュニティの文脈で出現したことを示している。
- 参考スコア(独自算出の注目度): 7.978143550070664
- License:
- Abstract: How are Reddit communities responding to AI-generated content? We explored this question through a large-scale analysis of subreddit community rules and their change over time. We collected the metadata and community rules for over 300,000 public subreddits and measured the prevalence of rules governing AI. We labeled subreddits and AI rules according to existing taxonomies from the HCI literature and a new taxonomy we developed specific to AI rules. While rules about AI are still relatively uncommon, the number of subreddits with these rules almost doubled over the course of a year. AI rules are also more common in larger subreddits and communities focused on art or celebrity topics, and less common in those focused on social support. These rules often focus on AI images and evoke, as justification, concerns about quality and authenticity. Overall, our findings illustrate the emergence of varied concerns about AI, in different community contexts.
- Abstract(参考訳): AI生成コンテンツに対するRedditコミュニティの反応
我々は,この課題を,過度なコミュニティルールとその経年変化の大規模分析を通じて検討した。
我々は、30万人以上のパブリックサブレディットのメタデータとコミュニティルールを収集し、AIを規定するルールの頻度を測定した。
私たちは、HCI文献の既存の分類法と、AIルール特有の新しい分類法に基づいて、サブレディットとAIルールをラベル付けしました。
AIに関するルールはまだ一般的ではないが、これらのルールによるサブレディットの数は1年でほぼ倍増した。
AIルールは、芸術や有名人に焦点を当てた大規模なサブレディットやコミュニティでも一般的であり、社会的支援に焦点を当てたコミュニティでは一般的ではない。
これらのルールは、しばしばAIイメージに焦点を合わせ、正当化として、品質と信頼性に関する懸念を喚起する。
全体として、我々の研究結果は、さまざまなコミュニティコンテキストにおいて、AIに関するさまざまな懸念が出現したことを示している。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Examining the Prevalence and Dynamics of AI-Generated Media in Art Subreddits [13.343255875002459]
AI生成コンテンツがRedditのアート関連コミュニティに与える影響について検討する。
私たちは、これらのコミュニティがAIによって透明に作成する画像ベースの投稿や、生成的AIを使用する著者を疑うコミュニティのコメントを見てみます。
我々は、AIコンテンツが新参者にとってより簡単に利用でき、コミュニティのルールに従って参加を増やすのに役立つことを示している。
論文 参考訳(メタデータ) (2024-10-09T17:41:13Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - "There Has To Be a Lot That We're Missing": Moderating AI-Generated Content on Reddit [5.202496456440801]
ジェネレーティブAIは、私たちの働き方、学び方、コミュニケーション方、オンラインコミュニティへの参加方法を変え始めている。
我々は、AIGCによるオンラインコミュニティモデレーターの経験に焦点を当てる。
我々の研究によると、AIGCに関するルールは、コンテンツ品質、社会的ダイナミクス、ガバナンスの課題に対する懸念によって動機づけられている。
我々は、AIGCを検知するばかげたツールがないにもかかわらず、モデレーターは、コミュニティと協力して規範を明確にすることで、この新しい現象によって引き起こされる混乱を幾らか抑制することができた。
論文 参考訳(メタデータ) (2023-11-21T16:15:21Z) - Governance of the AI, by the AI, and for the AI [9.653656920225858]
研究者たちは、人工知能の時代がようやくやってきたと信じている。
AIの現状は、社会の多くの異なる分野に大きな変化をもたらしている。
論文 参考訳(メタデータ) (2023-05-04T03:29:07Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - A Pathway Towards Responsible AI Generated Content [68.13835802977125]
我々は、AIGCの健全な開発と展開を妨げかねない8つの主要な懸念に焦点を当てている。
これらの懸念には、(1)プライバシー、(2)バイアス、毒性、誤情報、(3)知的財産(IP)、(4)堅牢性、(5)オープンソースと説明、(6)技術の乱用、(7)同意、信用、補償、(8)環境からのリスクが含まれる。
論文 参考訳(メタデータ) (2023-03-02T14:58:40Z) - Ever heard of ethical AI? Investigating the salience of ethical AI
issues among the German population [0.0]
AIに対する一般的な関心と高等教育レベルは、AIとの関わりを予測している。
倫理的な問題は、公平さ、説明責任、透明性が最も言及されていない市民の小さなサブセットによってのみ語られる。
倫理的AIが頭上に立つと、アクティビズムの可能性がある。
論文 参考訳(メタデータ) (2022-07-28T13:46:13Z) - AI Challenges for Society and Ethics [0.0]
人工知能はすでに、医療、金融、警察など、社会の重要な分野に応用され、影響を及ぼしている。
AIガバナンスの役割は、最終的に、AIにおけるイノベーションのメリットを実現しつつ、この危害のリスクを軽減するための実践的なステップを取ることです。
また、社会におけるAIの有益な利用がどのようなものかという規範的な質問を通じて考えることも必要だ。
論文 参考訳(メタデータ) (2022-06-22T13:33:11Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。