論文の概要: AI Feedback Enhances Community-Based Content Moderation through Engagement with Counterarguments
- arxiv url: http://arxiv.org/abs/2507.08110v2
- Date: Sat, 09 Aug 2025 06:23:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.358863
- Title: AI Feedback Enhances Community-Based Content Moderation through Engagement with Counterarguments
- Title(参考訳): AIのフィードバックがコミュニティベースのコンテンツモデレーションを強化
- Authors: Saeedeh Mohammadi, Taha Yasseri,
- Abstract要約: 本研究は,AIを用いたハイブリット・モデレーション・フレームワークについて検討した。
その結果,フィードバックを取り入れることで音質が向上することがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Today, social media platforms are significant sources of news and political communication, but their role in spreading misinformation has raised significant concerns. In response, these platforms have implemented various content moderation strategies. One such method, Community Notes on X, relies on crowdsourced fact-checking and has gained traction, though it faces challenges such as partisan bias and delays in verification. This study explores an AI-assisted hybrid moderation framework in which participants receive AI-generated feedback -supportive, neutral, or argumentative -on their notes and are asked to revise them accordingly. The results show that incorporating feedback improves the quality of notes, with the most substantial gains resulting from argumentative feedback. This underscores the value of diverse perspectives and direct engagement in human-AI collective intelligence. The research contributes to ongoing discussions about AI's role in political content moderation, highlighting the potential of generative AI and the importance of informed design.
- Abstract(参考訳): 現在、ソーシャルメディアプラットフォームはニュースや政治コミュニケーションの重要な源となっているが、偽情報の拡散における彼らの役割は重大な懸念を巻き起こしている。
これらのプラットフォームは、様々なコンテンツモデレーション戦略を実装している。
コミュニティノート(Community Notes on X)と呼ばれるこの手法は、クラウドソースによる事実チェックに依存しており、党派的偏見や検証の遅れといった問題に直面している。
本研究では、参加者がAIによって生成されたフィードバック(支持的、中立的、あるいは議論的)をノートに受け取り、それに応じて修正を依頼するAI支援ハイブリッドモデレーションフレームワークについて検討する。
その結果,フィードバックを取り入れることで音質が向上することがわかった。
これは、人間とAIの集団知性において、多様な視点と直接的な関与の価値を浮き彫りにしている。
この研究は、AIが政治内容のモデレーションにおいて果たす役割について継続的な議論に寄与し、生成AIの可能性と情報デザインの重要性を強調している。
関連論文リスト
- The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - When Models Know More Than They Can Explain: Quantifying Knowledge Transfer in Human-AI Collaboration [79.69935257008467]
我々は,人間とAIの知識伝達能力に関する概念的かつ実験的フレームワークである知識統合と伝達評価(KITE)を紹介する。
最初の大規模人間実験(N=118)を行い,その測定を行った。
2段階のセットアップでは、まずAIを使って問題解決戦略を思いつき、その後独立してソリューションを実装し、モデル説明が人間の理解に与える影響を分離します。
論文 参考訳(メタデータ) (2025-06-05T20:48:16Z) - Community Moderation and the New Epistemology of Fact Checking on Social Media [124.26693978503339]
ソーシャルメディアプラットフォームは伝統的に、誤解を招くコンテンツを識別しフラグを立てるために、独立した事実チェック組織に依存してきた。
X(元Twitter)とMetaは、クラウドソースのファクトチェックの独自のバージョンを立ち上げて、コミュニティ主導のコンテンツモデレーションに移行した。
主要なプラットフォーム間での誤情報検出の現在のアプローチについて検討し,コミュニティ主導型モデレーションの新たな役割を探求し,大規模クラウドチェックの約束と課題の両方を批判的に評価する。
論文 参考訳(メタデータ) (2025-05-26T14:50:18Z) - The impact of AI and peer feedback on research writing skills: a study using the CGScholar platform among Kazakhstani scholars [0.0]
本研究は、CGScholarプラットフォームを用いたカザフスタンの学術著作開発におけるAIとピアフィードバックの影響について研究する。
この研究は、AIツールとピアフィードバックプロセスへの親しみが参加者のオープンネスにどのように影響するかを調べることを目的としている。
論文 参考訳(メタデータ) (2025-03-05T04:34:25Z) - Users Favor LLM-Generated Content -- Until They Know It's AI [0.0]
本研究では,コンテンツソースが隠蔽されたり開示されたりした場合に,人間のラングモデルと大規模ラングモデルを用いて,一般的な質問に対する応答を個人がどのように評価するかを検討する。
以上の結果から,参加者はAIによる反応を好む傾向が示唆された。
AIの起源が明らかになると、この選好は著しく低下し、評価的判断が応答の発覚の開示に影響されることが示唆される。
論文 参考訳(メタデータ) (2025-02-23T11:14:02Z) - Challenges and Future Directions of Data-Centric AI Alignment [22.165745901158804]
現在のアライメント手法は主にアルゴリズムと損失関数の設計に重点を置いているが、しばしばデータの重要な役割を過小評価している。
本稿では、データ中心のAIアライメントへのシフトを提唱し、AIシステムの整合に使用されるデータの品質と代表性を高める必要性を強調した。
論文 参考訳(メタデータ) (2024-10-02T19:03:42Z) - A Survey of Stance Detection on Social Media: New Directions and Perspectives [50.27382951812502]
姿勢検出は 感情コンピューティングにおける 重要なサブフィールドとして現れました
近年は、効果的な姿勢検出手法の開発に対する研究の関心が高まっている。
本稿では,ソーシャルメディア上での姿勢検出手法に関する包括的調査を行う。
論文 参考訳(メタデータ) (2024-09-24T03:06:25Z) - HearHere: Mitigating Echo Chambers in News Consumption through an
AI-based Web System [23.289938642423298]
We present HearHere, a AI-based web system, designed to help users accommodate information and opinion from various perspectives。
本研究は、政治的偏極を緩和する手段として、政治的スタンス情報の提供とユーザの政治的地位の定量化の重要性を強調した。
論文 参考訳(メタデータ) (2024-02-28T10:37:14Z) - Do You Trust ChatGPT? -- Perceived Credibility of Human and AI-Generated
Content [0.8602553195689513]
本稿では,人文作家が生み出すコンテンツの信頼性と,大規模言語モデルが生み出すコンテンツの信頼性について考察する。
驚いたことに、私たちの結果は、ユーザインターフェースのプレゼンテーションに関わらず、参加者は同様の信頼性のレベルを考慮しがちであることを示した。
参加者はまた、人間とAIが生成したコンテンツの間の能力と信頼性に関する異なる認識を報告していない。
論文 参考訳(メタデータ) (2023-09-05T18:29:29Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Aggression and "hate speech" in communication of media users: analysis
of control capabilities [50.591267188664666]
著者らは新メディアにおける利用者の相互影響の可能性を検討した。
新型コロナウイルス(COVID-19)対策として、緊急の社会問題について議論する際、攻撃やヘイトスピーチのレベルが高いことが分かった。
結果は、現代のデジタル環境におけるメディアコンテンツの開発に有用である。
論文 参考訳(メタデータ) (2022-08-25T15:53:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。