論文の概要: Automatic Expansion and Retargeting of Arabic Offensive Language
Training
- arxiv url: http://arxiv.org/abs/2111.09574v1
- Date: Thu, 18 Nov 2021 08:25:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-19 13:49:39.323344
- Title: Automatic Expansion and Retargeting of Arabic Offensive Language
Training
- Title(参考訳): アラビア語攻撃言語訓練の自動拡張と再ターゲティング
- Authors: Hamdy Mubarak, Ahmed Abdelali, Kareem Darwish and Younes Samih
- Abstract要約: 当社は2つの重要な洞察を取り入れている。つまり、Twitter上のリプライがしばしば反対を示唆し、一部のアカウントは特定のターゲットに対して攻撃的であることに固執している。
本手法はアラビア語のツイートに対して13%と79%の相対的なF1尺度が有効であることを示す。
- 参考スコア(独自算出の注目度): 12.111859709582617
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Rampant use of offensive language on social media led to recent efforts on
automatic identification of such language. Though offensive language has
general characteristics, attacks on specific entities may exhibit distinct
phenomena such as malicious alterations in the spelling of names. In this
paper, we present a method for identifying entity specific offensive language.
We employ two key insights, namely that replies on Twitter often imply
opposition and some accounts are persistent in their offensiveness towards
specific targets. Using our methodology, we are able to collect thousands of
targeted offensive tweets. We show the efficacy of the approach on Arabic
tweets with 13% and 79% relative F1-measure improvement in entity specific
offensive language detection when using deep-learning based and support vector
machine based classifiers respectively. Further, expanding the training set
with automatically identified offensive tweets directed at multiple entities
can improve F1-measure by 48%.
- Abstract(参考訳): ソーシャルメディアでの攻撃的言語の使用は、こうした言語の自動識別への最近の取り組みに繋がった。
攻撃的言語は一般的な特徴を持つが、特定の実体に対する攻撃は、名前の綴りの悪質な変更のような異なる現象を示すことがある。
本稿では,エンティティ固有の攻撃言語を識別する手法を提案する。
私たちは、2つの重要な洞察を生かしています。すなわち、twitterでの返信は、しばしば反対を示し、一部のアカウントは特定のターゲットに対する攻撃性に固執しています。
我々の手法により、攻撃的なツイートを数千件集めることができる。
深層学習ベースとベクターマシンベース分類器を用いた場合, エンティティ固有攻撃言語検出における13%と79%の相対的なF1尺度の改善によるアプローチの有効性を示す。
さらに、複数のエンティティに向けられた攻撃的ツイートを自動的に認識してトレーニングセットを拡張することで、f1測定を48%改善できる。
関連論文リスト
- Muted: Multilingual Targeted Offensive Speech Identification and
Visualization [15.656203119337436]
Muted は多言語 HAP の内容を特定するシステムであり,その強度を示すために熱マップを用いて攻撃的引数とそのターゲットを表示する。
本稿では,攻撃的スパンとその対象を既存のデータセットで識別する上でのモデルの性能と,ドイツ語のテキストに新たなアノテーションを提示する。
論文 参考訳(メタデータ) (2023-12-18T16:50:27Z) - Locally Differentially Private Document Generation Using Zero Shot
Prompting [61.20953109732442]
本稿では,DP-Prompt と呼ばれる局所的に異なるプライベートなメカニズムを提案し,作者の匿名化攻撃に対処する。
DP-PromptをChatGPT(gpt-3.5)のような強力な言語モデルで使用すると、匿名化攻撃の成功率の顕著な低下が観察される。
論文 参考訳(メタデータ) (2023-10-24T18:25:13Z) - Unlikelihood Tuning on Negative Samples Amazingly Improves Zero-Shot
Translation [79.96416609433724]
Zero-shot Translation (ZST)は、トレーニングデータにおいて、目に見えない言語ペア間の翻訳を目的としている。
推論中にゼロショット言語マッピングをガイドする一般的な方法は、ソースとターゲット言語IDを意図的に挿入することである。
近年の研究では、言語IDが時折ZSTタスクのナビゲートに失敗し、ターゲット外問題に悩まされることが示されている。
論文 参考訳(メタデータ) (2023-09-28T17:02:36Z) - How to Solve Few-Shot Abusive Content Detection Using the Data We Actually Have [58.23138483086277]
この作業では、すでに持っているデータセットを活用し、虐待的な言語検出に関連する幅広いタスクをカバーしています。
私たちのゴールは、ターゲットドメインのトレーニング例を少しだけ使用して、新しいターゲットラベルセットや/または言語のために、安価にモデルを構築することです。
実験の結果、すでに存在するデータセットと、対象タスクのほんの数ショットしか使用していないモデルの性能が、モノリンガル言語と言語間で改善されていることがわかった。
論文 参考訳(メタデータ) (2023-05-23T14:04:12Z) - On The Robustness of Offensive Language Classifiers [10.742675209112623]
ソーシャルメディアプラットフォームは、ヘイトフル、人種差別、その他の攻撃的スピーチを大規模に戦うために、機械学習ベースの攻撃的言語分類システムをデプロイしている。
我々は、より巧妙な敵対的攻撃に対して、最先端の攻撃的言語分類器の堅牢性について検討する。
以上の結果から,攻撃的言語分類器の精度は50%以上低下し,修正文の可読性や意味も維持できることがわかった。
論文 参考訳(メタデータ) (2022-03-21T20:44:30Z) - Emojis as Anchors to Detect Arabic Offensive Language and Hate Speech [6.1875341699258595]
攻撃的・憎悪的なツイートを大量に収集する汎用的な言語に依存しない手法を提案する。
絵文字に埋め込まれた言語外情報を利用して、多くの攻撃的なツイートを収集します。
論文 参考訳(メタデータ) (2022-01-18T03:56:57Z) - COLD: A Benchmark for Chinese Offensive Language Detection [54.60909500459201]
COLDatasetは、37kの注釈付き文を持つ中国の攻撃的言語データセットである。
また、人気のある中国語モデルの出力攻撃性を研究するために、textscCOLDetectorを提案する。
我々の資源と分析は、中国のオンラインコミュニティを解毒し、生成言語モデルの安全性を評価することを目的としている。
論文 参考訳(メタデータ) (2022-01-16T11:47:23Z) - Leveraging Adversarial Training in Self-Learning for Cross-Lingual Text
Classification [52.69730591919885]
本稿では,ラベル保存型入力摂動の最大損失を最小限に抑える半教師付き対向学習法を提案する。
多様な言語群に対する文書分類と意図分類において,有効性が著しく向上するのを観察する。
論文 参考訳(メタデータ) (2020-07-29T19:38:35Z) - Kungfupanda at SemEval-2020 Task 12: BERT-Based Multi-Task Learning for
Offensive Language Detection [55.445023584632175]
我々は,マルチタスク学習とBERTモデルを組み合わせた攻撃的言語検出システムを構築した。
我々のモデルは、英語のサブタスクAで91.51%のF1スコアを獲得し、これは第1位に匹敵する。
論文 参考訳(メタデータ) (2020-04-28T11:27:24Z) - Arabic Offensive Language on Twitter: Analysis and Experiments [9.879488163141813]
トピック,方言,ターゲットに偏らないデータセットを構築する方法を提案する。
我々は、下品さと憎しみのスピーチに特別なタグを付けた、これまでで最大のアラビア語データセットを作成します。
論文 参考訳(メタデータ) (2020-04-05T13:05:11Z) - Offensive Language Detection: A Comparative Analysis [2.5739449801033842]
本稿では,Google文エンコーダ,Fasttext,動的モード分解(DMD)に基づく機能とRandom kitchen sink(RKS)法による攻撃言語検出の有効性について検討する。
実験と評価の結果,Fastetxt を用いた RKS が競合する結果を得た。
論文 参考訳(メタデータ) (2020-01-09T17:48:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。