論文の概要: Understanding Counterspeech for Online Harm Mitigation
- arxiv url: http://arxiv.org/abs/2307.04761v1
- Date: Sat, 1 Jul 2023 20:54:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-16 04:03:15.038718
- Title: Understanding Counterspeech for Online Harm Mitigation
- Title(参考訳): オンラインハーム緩和のための対語理解
- Authors: Yi-Ling Chung, Gavin Abercrombie, Florence Enock, Jonathan Bright,
Verena Rieser
- Abstract要約: Counterspeechは、憎悪の犯人に挑戦し、虐待の標的への支援を示すことによって、憎悪の言葉に対する直接の反論を提供する。
コンテンツモデレーションやデプラットフォームといった、より論争的な手段に代わる、有望な代替手段を提供する。
本稿では,社会科学における反音声研究を体系的にレビューし,自動対音声生成における方法論と知見をコンピュータ科学の取り組みと比較する。
- 参考スコア(独自算出の注目度): 12.104301755723542
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Counterspeech offers direct rebuttals to hateful speech by challenging
perpetrators of hate and showing support to targets of abuse. It provides a
promising alternative to more contentious measures, such as content moderation
and deplatforming, by contributing a greater amount of positive online speech
rather than attempting to mitigate harmful content through removal. Advances in
the development of large language models mean that the process of producing
counterspeech could be made more efficient by automating its generation, which
would enable large-scale online campaigns. However, we currently lack a
systematic understanding of several important factors relating to the efficacy
of counterspeech for hate mitigation, such as which types of counterspeech are
most effective, what are the optimal conditions for implementation, and which
specific effects of hate it can best ameliorate. This paper aims to fill this
gap by systematically reviewing counterspeech research in the social sciences
and comparing methodologies and findings with computer science efforts in
automatic counterspeech generation. By taking this multi-disciplinary view, we
identify promising future directions in both fields.
- Abstract(参考訳): Counterspeechは、憎悪の犯人に挑戦し、虐待の標的への支援を示すことによって、憎悪の言葉に対する直接の反論を提供する。
コンテンツモデレーションやデプラットフォーム化といった、より議論の多い手段の代替手段を提供し、削除によって有害なコンテンツを軽減しようとするよりも、より多くのポジティブなオンラインスピーチに寄与する。
大規模な言語モデルの開発の進展は、カウンター音声を生成するプロセスが、大規模なオンラインキャンペーンを可能にする生成を自動化することで、より効率的にできることを意味している。
しかし, 現在では, ヘイト緩和効果に関するいくつかの重要な要因の体系的理解が欠如している。例えば, どのようなカウンタースピーチが最も効果的か, 実装の最適な条件は何か, ヘイトの効果の具体的な効果は最も改善できるのか, などである。
本稿では,社会科学における反音声研究の体系的見直しと,自動対音声生成における方法論と知見とコンピュータ科学の取り組みとの比較により,このギャップを埋めることを目的とする。
この多分野的な視点から、両分野における将来有望な方向性を特定する。
関連論文リスト
- Demarked: A Strategy for Enhanced Abusive Speech Moderation through Counterspeech, Detoxification, and Message Management [71.99446449877038]
本研究では, 重度尺度, (ii) ターゲットの存在, (iii) 文脈尺度, (iv) 法的尺度の4つの側面を基礎として, より包括的手法であるDemarcation scoreing abusive speechを提案する。
本研究は,ネット上での虐待的スピーチを効果的に解決するための今後の戦略を明らかにすることを目的としている。
論文 参考訳(メタデータ) (2024-06-27T21:45:33Z) - Towards Unsupervised Speech Recognition Without Pronunciation Models [57.222729245842054]
ほとんどの言語では、音声認識システムを効果的に訓練するのに十分なペア音声とテキストデータがない。
本稿では、教師なしASRシステムを開発するために、音素レキシコンへの依存を除去することを提案する。
音声合成とテキスト・テキスト・マスクによるトークン埋込から教師なし音声認識が実現可能であることを実験的に実証した。
論文 参考訳(メタデータ) (2024-06-12T16:30:58Z) - Outcome-Constrained Large Language Models for Countering Hate Speech [10.434435022492723]
本研究は,会話結果に制約された反音声を生成する手法を開発することを目的とする。
我々は,大言語モデル(LLM)を用いて,テキスト生成プロセスに2つの望ましい会話結果を導入する実験を行った。
評価結果から,提案手法が望まれる結果に対して効果的に対応できることが示唆された。
論文 参考訳(メタデータ) (2024-03-25T19:44:06Z) - Intent-conditioned and Non-toxic Counterspeech Generation using Multi-Task Instruction Tuning with RLAIF [14.2594830589926]
オンラインヘイトスピーチに対する反応として定義されているCounterspeechは、非センセーショナルソリューションとしてますます利用されている。
ヘイトフルステートメントにおける社会的バイアスの背景にある実践的意味をモデル化し,反音声生成を促進させる新しいフレームワークであるCoARLを紹介した。
CoARLの最初の2つのフェーズは、連続的なマルチインストラクションチューニング、インテント、反応、攻撃的ステートメントの害を理解するためのモデルを教えること、そしてインテント条件付き逆音声を生成するためのタスク固有の低ランクアダプタ重みを学習することである。
論文 参考訳(メタデータ) (2024-03-15T08:03:49Z) - DisCGen: A Framework for Discourse-Informed Counterspeech Generation [34.75404551612012]
本稿では,言論理論に基づく枠組みを提案し,反声と憎しみのあるコメントを結びつける推論リンクについて検討する。
本稿では,Reddit から現在地にある反音声のデータセットを収集するプロセスを提案する。
提案するデータセットとフレームワークを用いて,大規模言語モデルを用いて,談話理論に基づいて文脈的に接地した対音声を生成することができることを示す。
論文 参考訳(メタデータ) (2023-11-29T23:20:17Z) - SpeechGen: Unlocking the Generative Power of Speech Language Models with
Prompts [108.04306136086807]
本稿では,SpeechGenと呼ばれる統合フレームワークを用いて,各種タスクの音声LMを刺激するための即時チューニングの適用について検討する。
提案した統合フレームワークは効率と有効性に大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-06-03T22:35:27Z) - Improving Distortion Robustness of Self-supervised Speech Processing
Tasks with Domain Adaptation [60.26511271597065]
音声歪みは、視覚的に訓練された音声処理モデルの性能を劣化させる長年の問題である。
音声処理モデルのロバスト性を向上して、音声歪みに遭遇する際の良好な性能を得るには、時間を要する。
論文 参考訳(メタデータ) (2022-03-30T07:25:52Z) - Deep Learning for Hate Speech Detection: A Comparative Study [54.42226495344908]
ここでは, ディープ・ヘイト・音声検出法と浅いヘイト・音声検出法を大規模に比較した。
私たちの目標は、この地域の進歩を照らし、現在の最先端の強みと弱点を特定することです。
そこで我々は,ヘイトスピーチ検出の実践的利用に関するガイダンスの提供,最先端の定量化,今後の研究方向の特定を目的としている。
論文 参考訳(メタデータ) (2022-02-19T03:48:20Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Generate, Prune, Select: A Pipeline for Counterspeech Generation against
Online Hate Speech [9.49544185939481]
オフザシェルフ自然言語生成(NLG)法は, 日常的, 反復的, 安全な応答を生成する点で制限されている。
本稿では,多様性と妥当性を効果的に向上する3モジュールパイプラインを設計する。
提案したパイプラインは,まず多様性を促進するために生成モデルを用いて様々な反音声候補を生成し,次にBERTモデルを用いて非文法的候補をフィルタリングし,最後に最も関連性の高い反音声応答を選択する。
論文 参考訳(メタデータ) (2021-06-03T06:54:03Z) - Impact and dynamics of hate and counter speech online [0.0]
市民によるカウンタースピーチは、ヘイトスピーチと戦い、平和的で非分極的な言論を促進するための有望な方法だ。
われわれはドイツのTwitterで4年間に起きた180,000件の政治的会話を分析した。
論文 参考訳(メタデータ) (2020-09-16T01:43:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。