論文の概要: AI Rules? Characterizing Reddit Community Policies Towards AI-Generated Content
- arxiv url: http://arxiv.org/abs/2410.11698v1
- Date: Tue, 15 Oct 2024 15:31:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 14:02:56.443870
- Title: AI Rules? Characterizing Reddit Community Policies Towards AI-Generated Content
- Title(参考訳): AIルール? RedditコミュニティポリシーをAI生成コンテンツに特徴付ける
- Authors: Travis Lloyd, Jennah Gosciak, Tung Nguyen, Mor Naaman,
- Abstract要約: 30万件以上の公開サブレディットのメタデータとコミュニティルールを収集しました。
既存の文献と、AIルールに特有の新しい分類基準に基づいて、サブレディットとAIルールをラベル付けしました。
我々の研究結果は、AIに関する様々な懸念が、異なるコミュニティの文脈で出現したことを示している。
- 参考スコア(独自算出の注目度): 7.978143550070664
- License:
- Abstract: How are Reddit communities responding to AI-generated content? We explored this question through a large-scale analysis of subreddit community rules and their change over time. We collected the metadata and community rules for over 300,000 public subreddits and measured the prevalence of rules governing AI. We labeled subreddits and AI rules according to existing taxonomies from the HCI literature and a new taxonomy we developed specific to AI rules. While rules about AI are still relatively uncommon, the number of subreddits with these rules almost doubled over the course of a year. AI rules are also more common in larger subreddits and communities focused on art or celebrity topics, and less common in those focused on social support. These rules often focus on AI images and evoke, as justification, concerns about quality and authenticity. Overall, our findings illustrate the emergence of varied concerns about AI, in different community contexts.
- Abstract(参考訳): AI生成コンテンツに対するRedditコミュニティの反応
我々は,この課題を,過度なコミュニティルールとその経年変化の大規模分析を通じて検討した。
我々は、30万人以上のパブリックサブレディットのメタデータとコミュニティルールを収集し、AIを規定するルールの頻度を測定した。
私たちは、HCI文献の既存の分類法と、AIルール特有の新しい分類法に基づいて、サブレディットとAIルールをラベル付けしました。
AIに関するルールはまだ一般的ではないが、これらのルールによるサブレディットの数は1年でほぼ倍増した。
AIルールは、芸術や有名人に焦点を当てた大規模なサブレディットやコミュニティでも一般的であり、社会的支援に焦点を当てたコミュニティでは一般的ではない。
これらのルールは、しばしばAIイメージに焦点を合わせ、正当化として、品質と信頼性に関する懸念を喚起する。
全体として、我々の研究結果は、さまざまなコミュニティコンテキストにおいて、AIに関するさまざまな懸念が出現したことを示している。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Examining the Prevalence and Dynamics of AI-Generated Media in Art Subreddits [13.343255875002459]
AI生成コンテンツがRedditのアート関連コミュニティに与える影響について検討する。
私たちは、これらのコミュニティがAIによって透明に作成する画像ベースの投稿や、生成的AIを使用する著者を疑うコミュニティのコメントを見てみます。
我々は、AIコンテンツが新参者にとってより簡単に利用でき、コミュニティのルールに従って参加を増やすのに役立つことを示している。
論文 参考訳(メタデータ) (2024-10-09T17:41:13Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - "There Has To Be a Lot That We're Missing": Moderating AI-Generated Content on Reddit [5.202496456440801]
我々は、AIGCによるオンラインコミュニティモデレーターの経験に焦点を当てる。
我々の研究によると、コミュニティは、イデオロギーと実践の両方の理由から、AIGCの使用を制限する規則を制定することを選択している。
この急激な技術的変化に直面して,コミュニティの自立と自己決定を支援することの重要性を強調した。
論文 参考訳(メタデータ) (2023-11-21T16:15:21Z) - Governance of the AI, by the AI, and for the AI [9.653656920225858]
研究者たちは、人工知能の時代がようやくやってきたと信じている。
AIの現状は、社会の多くの異なる分野に大きな変化をもたらしている。
論文 参考訳(メタデータ) (2023-05-04T03:29:07Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - AI Ethics Issues in Real World: Evidence from AI Incident Database [0.6091702876917279]
インテリジェントなサービスロボット、言語/ビジョンモデル、そして自動運転がリードする、AIの非倫理的利用をよく目にする13のアプリケーション領域を特定します。
倫理的問題は、不適切な使用や人種的差別から、身体的安全と不公平なアルゴリズムまで、8つの異なる形態で現れる。
論文 参考訳(メタデータ) (2022-06-15T16:25:57Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Could regulating the creators deliver trustworthy AI? [2.588973722689844]
AIは広く普及しており、私たちの知識なしに日々のテクノロジー、デバイス、サービスにデプロイされることが多い。
恐怖は、信頼できるAIの源を指し示すことができないことによって複雑化している。
信頼できるAIは、関連する法律に準拠するものだと考える人もいる。
倫理や基準に従う必要性を指摘する者もいる。
論文 参考訳(メタデータ) (2020-06-26T01:32:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。