論文の概要: Which Argumentative Aspects of Hate Speech in Social Media can be
reliably identified?
- arxiv url: http://arxiv.org/abs/2306.02978v1
- Date: Mon, 5 Jun 2023 15:50:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 14:15:41.381217
- Title: Which Argumentative Aspects of Hate Speech in Social Media can be
reliably identified?
- Title(参考訳): ソーシャルメディアにおけるヘイトスピーチのどの論点を確実に特定できるのか?
- Authors: Dami\'an Furman, Pablo Torres, Jos\'e A. Rodr\'iguez, Diego Letzen,
Vanina Mart\'inez, Laura Alonso Alemany
- Abstract要約: 議論のどの側面が言語モデルに確実に識別され、統合されるのかは、不明である。
いくつかのコンポーネントが合理的な信頼性で識別可能であることを示す。
より確実に再現できるカテゴリの適応を提案する。
- 参考スコア(独自算出の注目度): 2.7647400328727256
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the increasing diversity of use cases of large language models, a more
informative treatment of texts seems necessary. An argumentative analysis could
foster a more reasoned usage of chatbots, text completion mechanisms or other
applications. However, it is unclear which aspects of argumentation can be
reliably identified and integrated in language models. In this paper, we
present an empirical assessment of the reliability with which different
argumentative aspects can be automatically identified in hate speech in social
media. We have enriched the Hateval corpus (Basile et al. 2019) with a manual
annotation of some argumentative components, adapted from Wagemans (2016)'s
Periodic Table of Arguments. We show that some components can be identified
with reasonable reliability. For those that present a high error ratio, we
analyze the patterns of disagreement between expert annotators and errors in
automatic procedures, and we propose adaptations of those categories that can
be more reliably reproduced.
- Abstract(参考訳): 大規模言語モデルのユースケースの多様性が増すにつれ、テキストのより情報的な扱いが求められている。
議論的な分析は、チャットボット、テキスト補完機構、その他のアプリケーションのより合理的な利用を促進する可能性がある。
しかし、議論のどの側面が言語モデルに確実に識別され、統合できるかは明らかでない。
本稿では,ソーシャルメディアにおけるヘイトスピーチにおいて,異なる議論的側面を自動的に識別できる信頼性を実証的に評価する。
我々は、hatvalコーパス(basile et al. 2019)を、watmans(2016)の周期的議論表から適応したいくつかの議論的要素の手動アノテーションで強化した。
いくつかのコンポーネントは妥当な信頼性で識別できることを示す。
高エラー率を示す人に対しては、専門家のアノテータと自動手順におけるエラーの相違パターンを分析し、より確実に再現可能なカテゴリの適応を提案する。
関連論文リスト
- Evaluating Text Classification Robustness to Part-of-Speech Adversarial Examples [0.6445605125467574]
逆の例は意思決定プロセスを騙すために設計された入力であり、人間には理解できないことを意図している。
テキストベースの分類システムでは、入力の変更(テキストの文字列)は常に認識可能である。
テキストベースの逆数例の質を向上させるためには、入力テキストのどの要素に注目する価値があるかを知る必要がある。
論文 参考訳(メタデータ) (2024-08-15T18:33:54Z) - Consolidating Strategies for Countering Hate Speech Using Persuasive
Dialogues [3.8979646385036175]
オンライン会話におけるヘイトフルコメントに対する反論を生み出すためのコントロール可能な戦略について検討する。
自動評価と人的評価を用いて、流動的で議論的で論理的に健全な議論を生成する特徴の最適な組み合わせを決定する。
我々は,このような特徴を持つテキストを自動的に注釈付けするための計算モデルと,既存のヘイトスピーチコーパスの銀標準アノテートバージョンを共有した。
論文 参考訳(メタデータ) (2024-01-15T16:31:18Z) - Dialogue Quality and Emotion Annotations for Customer Support
Conversations [7.218791626731783]
本稿では、二言語的顧客サポート会話の文脈における感情と会話品質に対する全体論的アノテーションアプローチを提案する。
これは、テキスト分類モデルの開発に、ユニークで価値のあるリソースを提供する。
論文 参考訳(メタデータ) (2023-11-23T10:56:14Z) - AI, write an essay for me: A large-scale comparison of human-written
versus ChatGPT-generated essays [66.36541161082856]
ChatGPTや同様の生成AIモデルは、何億人ものユーザーを惹きつけている。
本研究は,ChatGPTが生成した議論的学生エッセイと比較した。
論文 参考訳(メタデータ) (2023-04-24T12:58:28Z) - Models See Hallucinations: Evaluating the Factuality in Video Captioning [57.85548187177109]
ビデオキャプションにおける実感の人間による評価を行い、2つの注釈付き実感データセットを収集する。
モデル生成文の57.0%に事実誤りがあり、この分野では深刻な問題であることを示す。
本稿では,映像キャプションの事実性評価において,従来の指標より優れていたモデルベース事実性指標FactVCを提案する。
論文 参考訳(メタデータ) (2023-03-06T08:32:50Z) - Shapley Head Pruning: Identifying and Removing Interference in
Multilingual Transformers [54.4919139401528]
言語固有のパラメータを識別・解析することで干渉を減らすことができることを示す。
固定モデルから同定された注目ヘッドを除去することで、文分類と構造予測の両方において、ターゲット言語の性能が向上することを示す。
論文 参考訳(メタデータ) (2022-10-11T18:11:37Z) - Polling Latent Opinions: A Method for Computational Sociolinguistics
Using Transformer Language Models [4.874780144224057]
我々は,Yelp レビューのより大きなコーパス内で,トランスフォーマー言語モデルの記憶と外挿の能力を用いて,サブグループの言語的振る舞いを学習する。
トレーニングコーパスに特定のキーワードが制限されたり、全く存在しない場合においても、GPTは正しい感情を持つ大量のテキストを正確に生成できることを示す。
論文 参考訳(メタデータ) (2022-04-15T14:33:58Z) - Author Clustering and Topic Estimation for Short Texts [69.54017251622211]
同じ文書中の単語間の強い依存をモデル化することにより、遅延ディリクレ割当を拡張できる新しいモデルを提案する。
同時にユーザをクラスタ化し、ホック後のクラスタ推定の必要性を排除しています。
我々の手法は、短文で生じる問題に対する従来のアプローチよりも、-または----------- で機能する。
論文 参考訳(メタデータ) (2021-06-15T20:55:55Z) - Curious Case of Language Generation Evaluation Metrics: A Cautionary
Tale [52.663117551150954]
イメージキャプションや機械翻訳などのタスクを評価するデファクトメトリクスとして、いくつかの一般的な指標が残っている。
これは、使いやすさが原因でもあり、また、研究者がそれらを見て解釈する方法を知りたがっているためでもある。
本稿では,モデルの自動評価方法について,コミュニティにより慎重に検討するよう促す。
論文 参考訳(メタデータ) (2020-10-26T13:57:20Z) - Fast and Robust Unsupervised Contextual Biasing for Speech Recognition [16.557586847398778]
明示的な文脈言語モデルを必要としない代替手法を提案する。
学習コーパスからシステム語彙の各単語に対するバイアススコアを導出する。
関連するコンテキストが利用できる場合,認識精度が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-05-04T17:29:59Z) - Aspect-Controlled Neural Argument Generation [65.91772010586605]
我々は、与えられたトピック、スタンス、アスペクトの文レベル引数を生成するために、きめ細かいレベルで制御できる引数生成のための言語モデルを訓練する。
評価の結果,我々の生成モデルは高品質なアスペクト特異的な議論を生成できることがわかった。
これらの議論は、データ拡張による姿勢検出モデルの性能向上と、逆問題の生成に使用できる。
論文 参考訳(メタデータ) (2020-04-30T20:17:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。