論文の概要: Conversational Agents to Facilitate Deliberation on Harmful Content in WhatsApp Groups
- arxiv url: http://arxiv.org/abs/2405.20254v1
- Date: Thu, 30 May 2024 17:07:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-31 13:19:40.082816
- Title: Conversational Agents to Facilitate Deliberation on Harmful Content in WhatsApp Groups
- Title(参考訳): WhatsAppグループにおける有害コンテンツに関する議論を支援する会話エージェント
- Authors: Dhruv Agarwal, Farhana Shahid, Aditya Vashistha,
- Abstract要約: WhatsAppグループは有害なコンテンツの拡散の温床となっている。
プラットフォームのエンドツーエンドの暗号化を考えると、モデレーションの責務はグループ管理者とメンバーにある。
WhatsAppグループにおける有害コンテンツに対する議論の促進における会話エージェントの役割について検討する。
- 参考スコア(独自算出の注目度): 13.830408652480418
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: WhatsApp groups have become a hotbed for the propagation of harmful content including misinformation, hate speech, polarizing content, and rumors, especially in Global South countries. Given the platform's end-to-end encryption, moderation responsibilities lie on group admins and members, who rarely contest such content. Another approach is fact-checking, which is unscalable, and can only contest factual content (e.g., misinformation) but not subjective content (e.g., hate speech). Drawing on recent literature, we explore deliberation -- open and inclusive discussion -- as an alternative. We investigate the role of a conversational agent in facilitating deliberation on harmful content in WhatsApp groups. We conducted semi-structured interviews with 21 Indian WhatsApp users, employing a design probe to showcase an example agent. Participants expressed the need for anonymity and recommended AI assistance to reduce the effort required in deliberation. They appreciated the agent's neutrality but pointed out the futility of deliberation in echo chamber groups. Our findings highlight design tensions for such an agent, including privacy versus group dynamics and freedom of speech in private spaces. We discuss the efficacy of deliberation using deliberative theory as a lens, compare deliberation with moderation and fact-checking, and provide design recommendations for future such systems. Ultimately, this work advances CSCW by offering insights into designing deliberative systems for combating harmful content in private group chats on social media.
- Abstract(参考訳): WhatsAppグループは、偽情報、ヘイトスピーチ、偏光コンテンツ、噂などの有害コンテンツの拡散の温床となっている。
プラットフォームのエンドツーエンドの暗号化を考えると、モデレーションの責任はグループ管理者やメンバーにかかっている。
もう1つのアプローチはファクトチェックであり、これはスケール不可能であり、事実コンテンツ(例えば、誤報)としか競合できないが、主観的コンテンツ(例えば、ヘイトスピーチ)には対抗できない。
最近の文献に基づいて、オープンで包括的な議論である議論を代替として検討する。
WhatsAppグループにおける有害コンテンツに対する議論の促進における会話エージェントの役割について検討する。
インドのWhatsAppユーザー21人と半構造化インタビューを行い、サンプルエージェントの紹介にデザインプローブを用いた。
参加者は匿名の必要性を表明し、審議に必要な労力を減らすためにAI支援を推奨した。
彼らはエージェントの中立性を高く評価したが、エコーチャンバー群における熟考の有用性を指摘した。
この結果から,プライバシ対グループダイナミクス,言論の自由など,そのようなエージェントの設計上の緊張感が浮き彫りになった。
本稿では,レンズとしての熟考理論を用いた熟考の有効性について論じるとともに,モデレーションとファクトチェックとの比較を行い,将来的なシステム設計の提言を行う。
最終的に、この研究は、ソーシャルメディア上のプライベートグループチャットで有害なコンテンツと戦うための熟考システムの設計に関する洞察を提供することによって、CSCWを前進させる。
関連論文リスト
- A Hate Speech Moderated Chat Application: Use Case for GDPR and DSA Compliance [0.0]
本研究は、コンテンツモデレーションプロセスに法的・倫理的推論を実装する新しい応用法を提案する。
GPT-3.5やSolid Pods,ルール言語Provaといった技術を使って,オンラインコミュニケーションの基本となる2つのユースケースを提示し,実装する。
この研究は、ヘイトスピーチの法的および倫理的定義の異なる範囲で推論するための新しいアプローチを提案し、ヘイトスピーチに適合するカウンターを計画する。
論文 参考訳(メタデータ) (2024-10-10T08:28:38Z) - How Decentralization Affects User Agency on Social Platforms [0.0]
本研究は,園芸プラットフォームへの代替モデルとして,分散化が約束を果たす可能性について考察する。
本稿では,ブロックによるユーザ主導型コンテンツモデレーションを,分散型ソーシャルプラットフォームであるBluesky上のエージェンシー表現として記述する。
論文 参考訳(メタデータ) (2024-06-13T12:15:15Z) - SQuARe: A Large-Scale Dataset of Sensitive Questions and Acceptable
Responses Created Through Human-Machine Collaboration [75.62448812759968]
このデータセットは、韓国の大規模データセットで、49kの機密性があり、42kの許容範囲と46kの非許容応答がある。
データセットは、実際のニュースの見出しに基づいて、HyperCLOVAを人道的に活用して構築された。
論文 参考訳(メタデータ) (2023-05-28T11:51:20Z) - Engagement, User Satisfaction, and the Amplification of Divisive Content
on Social Media [23.3201470123544]
Twitterのエンゲージメントに基づくランキングアルゴリズムは、感情に満ちた、グループ外の敵対的なコンテンツを増幅する。
提案アルゴリズムでは,ユーザが選択した政治的つぶやきを好まないことが分かり,このエンゲージメントに基づくアルゴリズムはユーザの指定した嗜好を満たすには不十分であることが示唆された。
論文 参考訳(メタデータ) (2023-05-26T13:57:30Z) - A User-Driven Framework for Regulating and Auditing Social Media [94.70018274127231]
アルゴリズムフィルタリングは、フレキシブルでユーザ主導のベースラインに対して規制されるべきである。
プラットフォームフィルタのフィードには,それぞれのベースラインフィードと「類似した」情報コンテンツが含まれる必要がある。
プラットフォームがこの要件を尊重するかどうかをチェックする監査手順を提案する。
論文 参考訳(メタデータ) (2023-04-20T17:53:34Z) - Beyond Plain Toxic: Detection of Inappropriate Statements on Flammable
Topics for the Russian Language [76.58220021791955]
本稿では,不合理性という二項的概念と,センシティブなトピックの多項的概念に基づいてラベル付けされた2つのテキストコレクションについて述べる。
不適切な概念を客観するために、クラウドソーシングではデータ駆動方式で定義する。
論文 参考訳(メタデータ) (2022-03-04T15:59:06Z) - A Survey on Echo Chambers on Social Media: Description, Detection and
Mitigation [13.299893581687702]
ソーシャルメディア上のエコーチャンバーは、多くのネガティブな結果をもたらす重要な問題である。
我々は、エコーチャンバーの形成に繋がるアルゴリズムと心理学の両方のメカニズムを示す。
論文 参考訳(メタデータ) (2021-12-09T18:20:25Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Exploiting Unsupervised Data for Emotion Recognition in Conversations [76.01690906995286]
会話における感情認識(Emotion Recognition in Conversations:ERC)は、会話における話者の感情状態を予測することを目的としている。
ERCタスクの教師付きデータは限られている。
教師なし会話データを活用する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-02T13:28:47Z) - Echo Chambers on Social Media: A comparative analysis [64.2256216637683]
本研究では,4つのソーシャルメディアプラットフォーム上で100万ユーザが生成した100万個のコンテンツに対して,エコーチャンバーの操作的定義を導入し,大規模な比較分析を行う。
議論の的になっているトピックについてユーザの傾きを推測し、異なる特徴を分析してインタラクションネットワークを再構築する。
我々は、Facebookのようなニュースフィードアルゴリズムを実装するプラットフォームが、エコーチャンバの出現を招きかねないという仮説を支持する。
論文 参考訳(メタデータ) (2020-04-20T20:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。