論文の概要: Understanding Counterspeech for Online Harm Mitigation
- arxiv url: http://arxiv.org/abs/2307.04761v1
- Date: Sat, 1 Jul 2023 20:54:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-16 04:03:15.038718
- Title: Understanding Counterspeech for Online Harm Mitigation
- Title(参考訳): オンラインハーム緩和のための対語理解
- Authors: Yi-Ling Chung, Gavin Abercrombie, Florence Enock, Jonathan Bright,
Verena Rieser
- Abstract要約: Counterspeechは、憎悪の犯人に挑戦し、虐待の標的への支援を示すことによって、憎悪の言葉に対する直接の反論を提供する。
コンテンツモデレーションやデプラットフォームといった、より論争的な手段に代わる、有望な代替手段を提供する。
本稿では,社会科学における反音声研究を体系的にレビューし,自動対音声生成における方法論と知見をコンピュータ科学の取り組みと比較する。
- 参考スコア(独自算出の注目度): 12.104301755723542
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Counterspeech offers direct rebuttals to hateful speech by challenging
perpetrators of hate and showing support to targets of abuse. It provides a
promising alternative to more contentious measures, such as content moderation
and deplatforming, by contributing a greater amount of positive online speech
rather than attempting to mitigate harmful content through removal. Advances in
the development of large language models mean that the process of producing
counterspeech could be made more efficient by automating its generation, which
would enable large-scale online campaigns. However, we currently lack a
systematic understanding of several important factors relating to the efficacy
of counterspeech for hate mitigation, such as which types of counterspeech are
most effective, what are the optimal conditions for implementation, and which
specific effects of hate it can best ameliorate. This paper aims to fill this
gap by systematically reviewing counterspeech research in the social sciences
and comparing methodologies and findings with computer science efforts in
automatic counterspeech generation. By taking this multi-disciplinary view, we
identify promising future directions in both fields.
- Abstract(参考訳): Counterspeechは、憎悪の犯人に挑戦し、虐待の標的への支援を示すことによって、憎悪の言葉に対する直接の反論を提供する。
コンテンツモデレーションやデプラットフォーム化といった、より議論の多い手段の代替手段を提供し、削除によって有害なコンテンツを軽減しようとするよりも、より多くのポジティブなオンラインスピーチに寄与する。
大規模な言語モデルの開発の進展は、カウンター音声を生成するプロセスが、大規模なオンラインキャンペーンを可能にする生成を自動化することで、より効率的にできることを意味している。
しかし, 現在では, ヘイト緩和効果に関するいくつかの重要な要因の体系的理解が欠如している。例えば, どのようなカウンタースピーチが最も効果的か, 実装の最適な条件は何か, ヘイトの効果の具体的な効果は最も改善できるのか, などである。
本稿では,社会科学における反音声研究の体系的見直しと,自動対音声生成における方法論と知見とコンピュータ科学の取り組みとの比較により,このギャップを埋めることを目的とする。
この多分野的な視点から、両分野における将来有望な方向性を特定する。
関連論文リスト
- SpeechGPT-Gen: Scaling Chain-of-Information Speech Generation [56.913182262166316]
CoIG(Chain-of-Information Generation)は、大規模音声生成において意味情報と知覚情報を分離する手法である。
SpeechGPT-Genはセマンティックおよび知覚情報モデリングにおいて効率的である。
ゼロショット音声変換、ゼロショット音声変換、音声音声対話に優れる。
論文 参考訳(メタデータ) (2024-01-24T15:25:01Z) - Consolidating Strategies for Countering Hate Speech Using Persuasive
Dialogues [3.8979646385036175]
オンライン会話におけるヘイトフルコメントに対する反論を生み出すためのコントロール可能な戦略について検討する。
自動評価と人的評価を用いて、流動的で議論的で論理的に健全な議論を生成する特徴の最適な組み合わせを決定する。
我々は,このような特徴を持つテキストを自動的に注釈付けするための計算モデルと,既存のヘイトスピーチコーパスの銀標準アノテートバージョンを共有した。
論文 参考訳(メタデータ) (2024-01-15T16:31:18Z) - DisCGen: A Framework for Discourse-Informed Counterspeech Generation [34.75404551612012]
本稿では,言論理論に基づく枠組みを提案し,反声と憎しみのあるコメントを結びつける推論リンクについて検討する。
本稿では,Reddit から現在地にある反音声のデータセットを収集するプロセスを提案する。
提案するデータセットとフレームワークを用いて,大規模言語モデルを用いて,談話理論に基づいて文脈的に接地した対音声を生成することができることを示す。
論文 参考訳(メタデータ) (2023-11-29T23:20:17Z) - Hate Speech Detection via Dual Contrastive Learning [25.878271501274245]
本稿では,ヘイトスピーチ検出のための新しい双方向コントラスト学習フレームワークを提案する。
本フレームワークは,自己教師型学習と教師型学習の損失を協調的に最適化し,スパンレベルの情報を取得する。
公開可能な2つの英語データセットの実験を行い、実験結果から、提案モデルが最先端のモデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-07-10T13:23:36Z) - SpeechGen: Unlocking the Generative Power of Speech Language Models with
Prompts [108.04306136086807]
本稿では,SpeechGenと呼ばれる統合フレームワークを用いて,各種タスクの音声LMを刺激するための即時チューニングの適用について検討する。
提案した統合フレームワークは効率と有効性に大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-06-03T22:35:27Z) - DisfluencyFixer: A tool to enhance Language Learning through Speech To
Speech Disfluency Correction [50.51901599433536]
DisfluencyFixerは、英語とヒンディー語で音声から音声への拡散補正を行うツールである。
提案システムでは,入力音声からの拡散を除去し,出力として流速音声を返却する。
論文 参考訳(メタデータ) (2023-05-26T14:13:38Z) - Improving Distortion Robustness of Self-supervised Speech Processing
Tasks with Domain Adaptation [60.26511271597065]
音声歪みは、視覚的に訓練された音声処理モデルの性能を劣化させる長年の問題である。
音声処理モデルのロバスト性を向上して、音声歪みに遭遇する際の良好な性能を得るには、時間を要する。
論文 参考訳(メタデータ) (2022-03-30T07:25:52Z) - Deep Learning for Hate Speech Detection: A Comparative Study [54.42226495344908]
ここでは, ディープ・ヘイト・音声検出法と浅いヘイト・音声検出法を大規模に比較した。
私たちの目標は、この地域の進歩を照らし、現在の最先端の強みと弱点を特定することです。
そこで我々は,ヘイトスピーチ検出の実践的利用に関するガイダンスの提供,最先端の定量化,今後の研究方向の特定を目的としている。
論文 参考訳(メタデータ) (2022-02-19T03:48:20Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Generate, Prune, Select: A Pipeline for Counterspeech Generation against
Online Hate Speech [9.49544185939481]
オフザシェルフ自然言語生成(NLG)法は, 日常的, 反復的, 安全な応答を生成する点で制限されている。
本稿では,多様性と妥当性を効果的に向上する3モジュールパイプラインを設計する。
提案したパイプラインは,まず多様性を促進するために生成モデルを用いて様々な反音声候補を生成し,次にBERTモデルを用いて非文法的候補をフィルタリングし,最後に最も関連性の高い反音声応答を選択する。
論文 参考訳(メタデータ) (2021-06-03T06:54:03Z) - Impact and dynamics of hate and counter speech online [0.0]
市民によるカウンタースピーチは、ヘイトスピーチと戦い、平和的で非分極的な言論を促進するための有望な方法だ。
われわれはドイツのTwitterで4年間に起きた180,000件の政治的会話を分析した。
論文 参考訳(メタデータ) (2020-09-16T01:43:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。