論文の概要: Parsimonious Argument Annotations for Hate Speech Counter-narratives
- arxiv url: http://arxiv.org/abs/2208.01099v1
- Date: Mon, 1 Aug 2022 18:58:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-03 13:09:12.136408
- Title: Parsimonious Argument Annotations for Hate Speech Counter-narratives
- Title(参考訳): ヘイトスピーチ・カウンタナレーションのための暗黙の弁論
- Authors: Damian A. Furman, Pablo Torres, Jose A. Rodriguez, Lautaro Martinez,
Laura Alonso Alemany, Diego Letzen, Maria Vanina Martinez
- Abstract要約: 本稿では、ヘイトスピーチツイートのHatevalコーパス(Basile et al.)を充実させ、自動対ナラティブ生成を容易にする。
我々はまた、Wagemannsに基づく議論的な情報付きツイートを注釈付けし、特定のグループに対するヘイトスピーチに対して、説得力があり効果的な反ナラティブを構築するのに役立つと信じている。
予備的な結果は、自動アノテータが人間のアノテータに近づき、議論のいくつかの側面を検知する一方で、他のアノテータは低レベルまたは中程度のアノテータ間合意にしか到達しないことを示している。
- 参考スコア(独自算出の注目度): 4.825848785596437
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present an enrichment of the Hateval corpus of hate speech tweets (Basile
et. al 2019) aimed to facilitate automated counter-narrative generation.
Comparably to previous work (Chung et. al. 2019), manually written
counter-narratives are associated to tweets. However, this information alone
seems insufficient to obtain satisfactory language models for counter-narrative
generation. That is why we have also annotated tweets with argumentative
information based on Wagemanns (2016), that we believe can help in building
convincing and effective counter-narratives for hate speech against particular
groups.
We discuss adequacies and difficulties of this annotation process and present
several baselines for automatic detection of the annotated elements.
Preliminary results show that automatic annotators perform close to human
annotators to detect some aspects of argumentation, while others only reach low
or moderate level of inter-annotator agreement.
- Abstract(参考訳): 我々は,ヘイトスピーチツイートのHatevalコーパス(Basile et al 2019)を充実させ,自動対ナラティブ生成を促進する。
以前の作品(Chung et. al. 2019)と比べて、手書きの反ナラティブはツイートに関連付けられている。
しかし、この情報だけでは、反物語生成に適した言語モデルを得るには不十分である。
そこで私たちは、特定のグループに対するヘイトスピーチに対して、説得力があり効果的なカウンターナレーションを構築するのに役立つと信じている(2016年)。
本稿では,このアノテーションプロセスの状況と難易度について論じ,注釈付き要素の自動検出のためのベースラインをいくつか提示する。
予備的な結果から、自動アノテータは人間のアノテータに近づき、議論のいくつかの側面を検出する。
関連論文リスト
- Consolidating Strategies for Countering Hate Speech Using Persuasive
Dialogues [3.8979646385036175]
オンライン会話におけるヘイトフルコメントに対する反論を生み出すためのコントロール可能な戦略について検討する。
自動評価と人的評価を用いて、流動的で議論的で論理的に健全な議論を生成する特徴の最適な組み合わせを決定する。
我々は,このような特徴を持つテキストを自動的に注釈付けするための計算モデルと,既存のヘイトスピーチコーパスの銀標準アノテートバージョンを共有した。
論文 参考訳(メタデータ) (2024-01-15T16:31:18Z) - DisCGen: A Framework for Discourse-Informed Counterspeech Generation [34.75404551612012]
本稿では,言論理論に基づく枠組みを提案し,反声と憎しみのあるコメントを結びつける推論リンクについて検討する。
本稿では,Reddit から現在地にある反音声のデータセットを収集するプロセスを提案する。
提案するデータセットとフレームワークを用いて,大規模言語モデルを用いて,談話理論に基づいて文脈的に接地した対音声を生成することができることを示す。
論文 参考訳(メタデータ) (2023-11-29T23:20:17Z) - HARE: Explainable Hate Speech Detection with Step-by-Step Reasoning [29.519687405350304]
本稿では,大規模言語モデル(LLM)の推論能力を利用して,ヘイトスピーチの説明のギャップを埋めるヘイトスピーチ検出フレームワークHAREを紹介する。
SBICとImplicit Hateベンチマークの実験では、モデル生成データを用いた手法がベースラインを一貫して上回ることを示した。
提案手法は,訓練されたモデルの説明品質を高め,未知のデータセットへの一般化を改善する。
論文 参考訳(メタデータ) (2023-11-01T06:09:54Z) - When the Majority is Wrong: Modeling Annotator Disagreement for Subjective Tasks [45.14664901245331]
ヘイトスピーチの検出における重要な問題は、ある声明が人口集団に対して攻撃的であるかどうかを決定することである。
我々は、潜在的に攻撃的なテキストに基づいて、個々のアノテータ評価を予測するモデルを構築した。
その結果、アノテータの評価は、その人口統計情報とオンラインコンテンツに関する意見を用いて予測できることがわかった。
論文 参考訳(メタデータ) (2023-05-11T07:55:20Z) - Controllable Mixed-Initiative Dialogue Generation through Prompting [50.03458333265885]
混合開始対話タスクには、情報の繰り返し交換と会話制御が含まれる。
エージェントは、ポリシープランナーが定める特定の対話意図や戦略に従う応答を生成することにより、コントロールを得る。
標準的なアプローチは、これらの意図に基づいて生成条件を実行するために、訓練済みの言語モデルを微調整している。
代わりに、条件生成の微調整に代えて、大きな言語モデルをドロップインで置き換えるように促します。
論文 参考訳(メタデータ) (2023-05-06T23:11:25Z) - CoSyn: Detecting Implicit Hate Speech in Online Conversations Using a
Context Synergized Hyperbolic Network [52.85130555886915]
CoSynは、オンライン会話における暗黙のヘイトスピーチを検出するために、ユーザと会話のコンテキストを明示的に組み込んだ、コンテキスト中心のニューラルネットワークである。
我々は、CoSynが、1.24%から57.8%の範囲で絶対的に改善された暗黙のヘイトスピーチを検出することで、我々のベースラインを全て上回っていることを示す。
論文 参考訳(メタデータ) (2023-03-02T17:30:43Z) - SpeechLMScore: Evaluating speech generation using speech language model [43.20067175503602]
本稿では,音声認識モデルを用いて生成した音声を評価するための教師なしメトリックであるSpeechLMScoreを提案する。
人間のアノテーションは必要とせず、高度にスケーラブルなフレームワークです。
評価結果は,提案手法が音声生成タスクにおける評価スコアと有望な相関を示すことを示す。
論文 参考訳(メタデータ) (2022-12-08T21:00:15Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - An Information Retrieval Approach to Building Datasets for Hate Speech
Detection [3.587367153279349]
「一般的な慣行は、既知の憎しみの言葉を含むツイートを注釈するだけである。」
第二の課題は、ヘイトスピーチの定義が高度に変動し、主観的である傾向があることである。
我々の重要な洞察は、ヘイトスピーチの希少性と主観性が情報検索(IR)の関連性に類似していることである。
論文 参考訳(メタデータ) (2021-06-17T19:25:39Z) - Countering hate on social media: Large scale classification of hate and
counter speech [0.0]
憎しみに満ちたレトリックは、オンラインの議論をかき立て、極端な社会運動を育み、現実世界の暴力を引き起こす可能性がある。
潜在的な解決策は、市民が憎悪に満ちた会話を積極的に行い、市民の非分極的な言論を復活させようとする市民生成の対決演説である。
ここではドイツのユニークな状況を利用して、オンラインヘイトとカウンタースピーチの組織化に従事した。
我々は,様々な段落埋め込みと正規化ロジスティック回帰関数を組み合わさったアンサンブル学習アルゴリズムを用いて,これらの2つのグループから集めた何百万もの関連ツイートのコーパスにおいて,ヘイトとカウンタースピーチの両方を分類した。
論文 参考訳(メタデータ) (2020-06-02T23:12:52Z) - Learning an Unreferenced Metric for Online Dialogue Evaluation [53.38078951628143]
本稿では,大規模な事前学習言語モデルを用いて発話の潜在表現を抽出する非参照自動評価指標を提案する。
提案手法は,オンライン環境でのアノテーションと高い相関性を実現すると同時に,推論時に比較に真の応答を必要としないことを示す。
論文 参考訳(メタデータ) (2020-05-01T20:01:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。