論文の概要: How toxic is antisemitism? Potentials and limitations of automated
toxicity scoring for antisemitic online content
- arxiv url: http://arxiv.org/abs/2310.04465v1
- Date: Thu, 5 Oct 2023 15:23:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 18:30:58.384920
- Title: How toxic is antisemitism? Potentials and limitations of automated
toxicity scoring for antisemitic online content
- Title(参考訳): 反ユダヤ主義はどれほど有毒か?
オンラインコンテンツにおける自動毒性スコアリングの可能性と限界
- Authors: Helena Mihaljevi\'c and Elisabeth Steffen
- Abstract要約: Perspective APIはGoogleとJigsawによるテキスト毒性評価サービスである。
我々は、有害な反ユダヤ主義のテキストがいかに評価され、また、有害性のスコアが、異なるアンチ・セミズムのサブフォームに関してどのように異なるかを示す。
基本レベルでは、パースペクティブAPIは、反ユダヤ主義的な内容が有毒であると認識するが、非明示的な反ユダヤ主義の形式に関して重大な弱点を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Perspective API, a popular text toxicity assessment service by Google and
Jigsaw, has found wide adoption in several application areas, notably content
moderation, monitoring, and social media research. We examine its potentials
and limitations for the detection of antisemitic online content that, by
definition, falls under the toxicity umbrella term. Using a manually annotated
German-language dataset comprising around 3,600 posts from Telegram and
Twitter, we explore as how toxic antisemitic texts are rated and how the
toxicity scores differ regarding different subforms of antisemitism and the
stance expressed in the texts. We show that, on a basic level, Perspective API
recognizes antisemitic content as toxic, but shows critical weaknesses with
respect to non-explicit forms of antisemitism and texts taking a critical
stance towards it. Furthermore, using simple text manipulations, we demonstrate
that the use of widespread antisemitic codes can substantially reduce API
scores, making it rather easy to bypass content moderation based on the
service's results.
- Abstract(参考訳): GoogleとJigsawによる人気のテキスト毒性評価サービスであるAspective APIは、コンテンツモデレーション、監視、ソーシャルメディア研究など、いくつかのアプリケーション領域で広く採用されている。
我々は、その可能性と、毒性傘の用語に該当する反ユダヤ的オンラインコンテンツの検出の限界について検討する。
telegramとtwitterの約3600の投稿からなる手作業でアノテートされたドイツ語のデータセットを用いて、有害な反ユダヤ主義的な文章の格付けと、反ユダヤ主義の異なるサブフォームとテキストに表されるスタンスに対する毒性スコアの違いについて検討する。
基本レベルでは、パースペクティブAPIは、反ユダヤ主義的内容が有毒であると認識するが、非明示的な反ユダヤ主義とそれに対する批判的な姿勢をとるテキストの形式に関して、重大な弱点を示す。
さらに,単純なテキスト操作を用いることで,広範に散在するアンチセミティックコードを使用することで,APIのスコアを大幅に低減し,サービスの結果に基づいてコンテンツモデレーションを回避できることが実証された。
関連論文リスト
- Monitoring the evolution of antisemitic discourse on extremist social media using BERT [3.3037858066178662]
ソーシャルメディアに対する人種差別と不寛容は、悪質なオンライン環境に寄与する。
オンライン議論において、反ユダヤ主義のテーマとその関連する用語を追跡することは、参加者の感情を監視するのに役立つだろう。
論文 参考訳(メタデータ) (2024-02-06T20:34:49Z) - Using LLMs to discover emerging coded antisemitic hate-speech in
extremist social media [4.104047892870216]
本稿では,新たに出現するヘイトレイデン用語を検出する手法を提案する。
この方法論は、オンラインの反ユダヤ的談話の文脈でテストされる。
論文 参考訳(メタデータ) (2024-01-19T17:40:50Z) - Comprehensive Assessment of Toxicity in ChatGPT [49.71090497696024]
本研究は,ChatGPTの毒性を指導調整データセットを用いて評価する。
創作作業のプロンプトは 有害な反応を 引き起こす確率が 2倍になる
初期の研究で設計された、故意に有害なプロンプトは、もはや有害な反応を生じさせない。
論文 参考訳(メタデータ) (2023-11-03T14:37:53Z) - Antisemitic Messages? A Guide to High-Quality Annotation and a Labeled
Dataset of Tweets [0.0]
我々は、6,941ツイートのラベル付きデータセットを作成し、ユダヤ人、イスラエル、反ユダヤ主義に関する会話に共通する幅広いトピックをカバーしています。
このデータセットには、IHRA(International Holocaust Remembrance Alliance)による反ユダヤ主義の定義に基づく1,250のツイート(18%)が含まれている。
論文 参考訳(メタデータ) (2023-04-28T02:52:38Z) - Detoxifying Text with MaRCo: Controllable Revision with Experts and
Anti-Experts [57.38912708076231]
本稿では,制御可能な生成法とテキスト書き直し法を組み合わせた解毒アルゴリズムMARCoを紹介する。
MaRCoは、毒性のないLMと毒性のあるLMの下の可能性を利用して、マスクすべき候補単語を見つけ、置換する可能性がある。
我々は,いくつかの微妙な毒性とマイクロアグレスデータセットについて評価し,自動測定値の基準値を上回るだけでなく,MARCoの書き直しは人間による評価で2.1ドル以上好まれることを示した。
論文 参考訳(メタデータ) (2022-12-20T18:50:00Z) - Codes, Patterns and Shapes of Contemporary Online Antisemitism and
Conspiracy Narratives -- an Annotation Guide and Labeled German-Language
Dataset in the Context of COVID-19 [0.0]
インターネット上の反ユダヤ的・陰謀論のコンテンツは、データ駆動型アルゴリズムアプローチを不可欠にしている。
我々は、新型コロナウイルスのパンデミックの文脈において、オンラインコンテンツにおける反ユダヤ的・陰謀的理論のためのアノテーションガイドを開発する。
我々は、コード化やホロコースト後のアンチ・セミズムのような特定の形のアンチ・セミズムを含む作業定義を提供する。
論文 参考訳(メタデータ) (2022-10-13T10:32:39Z) - Beyond Plain Toxic: Detection of Inappropriate Statements on Flammable
Topics for the Russian Language [76.58220021791955]
本稿では,不合理性という二項的概念と,センシティブなトピックの多項的概念に基づいてラベル付けされた2つのテキストコレクションについて述べる。
不適切な概念を客観するために、クラウドソーシングではデータ駆動方式で定義する。
論文 参考訳(メタデータ) (2022-03-04T15:59:06Z) - A New Generation of Perspective API: Efficient Multilingual
Character-level Transformers [66.9176610388952]
Google JigsawのAspective APIの次期バージョンの基礎を提示する。
このアプローチの中心は、単一の多言語トークンフリーなCharformerモデルである。
静的な語彙を強制することで、さまざまな設定で柔軟性が得られます。
論文 参考訳(メタデータ) (2022-02-22T20:55:31Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - "Subverting the Jewtocracy": Online Antisemitism Detection Using
Multimodal Deep Learning [23.048101866010445]
オンラインの反ユダヤ主義の自動マルチモーダル検出の方向の最初の仕事を提示します。
TwitterとGabからの3,102と3,509のソーシャルメディア投稿で2つのデータセットをラベル付けしました。
本論文では, ポストからのテキストと画像を用いて, アンチセミズムコンテンツとその特定のアンチセミズムカテゴリの存在を検出するマルチモーダル深層学習システムを提案する。
論文 参考訳(メタデータ) (2021-04-13T05:22:55Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。