論文の概要: Fine-Tuning Approach for Arabic Offensive Language Detection System:
BERT-Based Model
- arxiv url: http://arxiv.org/abs/2203.03542v1
- Date: Mon, 7 Feb 2022 17:26:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-13 17:21:12.756442
- Title: Fine-Tuning Approach for Arabic Offensive Language Detection System:
BERT-Based Model
- Title(参考訳): アラビア語攻撃言語検出システムのための細調整手法:BERTモデル
- Authors: Fatemah Husain and Ozlem Uzuner
- Abstract要約: 本研究では,アラビア語攻撃言語データセットにおける微調整の効果について検討した。
我々は4つのデータセットを個別に組み合わせて、オンラインアラビア攻撃コンテンツに関する知識を得るために複数の分類器を開発する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The problem of online offensive language limits the health and security of
online users. It is essential to apply the latest state-of-the-art techniques
in developing a system to detect online offensive language and to ensure social
justice to the online communities. Our study investigates the effects of
fine-tuning across several Arabic offensive language datasets. We develop
multiple classifiers that use four datasets individually and in combination in
order to gain knowledge about online Arabic offensive content and classify
users comments accordingly. Our results demonstrate the limited effects of
transfer learning on the classifiers performance, particularly for highly
dialectal comments.
- Abstract(参考訳): オンライン攻撃言語の問題は、オンラインユーザの健康とセキュリティを制限する。
オンライン攻撃言語を検知し、オンラインコミュニティに社会正義を確実にするシステムを開発するためには、最新の最先端技術を適用することが不可欠である。
本研究は,アラビア語攻撃言語データセットにおける微調整の効果について検討した。
4つのデータセットを個別と組み合わせて複数の分類器を開発し,オンラインアラビア語攻撃コンテンツに関する知識を得て,それに従ってユーザのコメントを分類する。
本研究は,移動学習が分類器の性能,特に方言的コメントに与える影響を限定的に示すものである。
関連論文リスト
- QiBERT -- Classifying Online Conversations Messages with BERT as a Feature [0.0]
本稿では,ポルトガルの学校におけるオンライン社会会話から得られたデータを用いて行動傾向を観察することを目的とする。
このプロジェクトでは、BERTベースのモデルを通じて、最先端(SoA)機械学習アルゴリズムと手法を使用して、発話が議論の対象の内外かどうかを分類する。
論文 参考訳(メタデータ) (2024-09-09T11:38:06Z) - Offensive Language Identification in Transliterated and Code-Mixed
Bangla [29.30985521838655]
本稿では,翻訳とコードミキシングによるテキスト中の攻撃的言語識別について検討する。
TB-OLID(TB-OLID)は,5000のコメントを手動で書き起こした,バングラの攻撃的言語データセットである。
我々はTB-OLIDで機械学習モデルを訓練し、微調整を行い、このデータセットで結果を評価する。
論文 参考訳(メタデータ) (2023-11-25T13:27:22Z) - KoMultiText: Large-Scale Korean Text Dataset for Classifying Biased
Speech in Real-World Online Services [5.03606775899383]
KoMultiText"は、韓国の有名なSNSプラットフォームから収集された、包括的で大規模なデータセットである。
本手法は,多種多様な分類課題にまたがる人間レベルの精度を,様々な指標で測定する。
私たちの研究は、現実のヘイトスピーチとバイアス軽減のためのソリューションを提供し、オンラインコミュニティの健康改善に直接貢献します。
論文 参考訳(メタデータ) (2023-10-06T15:19:39Z) - Fine-Tuning Llama 2 Large Language Models for Detecting Online Sexual
Predatory Chats and Abusive Texts [2.406214748890827]
本稿では,Llama 2 7B-パラメーターモデルを用いて,オンライン性的捕食チャットと虐待言語の検出手法を提案する。
我々は、異なる大きさ、不均衡度、言語(英語、ローマ・ウルドゥー語、ウルドゥー語)のデータセットを用いてLLMを微調整する。
実験結果から,提案手法は3つの異なるデータセットに対して精度よく一貫した性能を示す。
論文 参考訳(メタデータ) (2023-08-28T16:18:50Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - A New Generation of Perspective API: Efficient Multilingual
Character-level Transformers [66.9176610388952]
Google JigsawのAspective APIの次期バージョンの基礎を提示する。
このアプローチの中心は、単一の多言語トークンフリーなCharformerモデルである。
静的な語彙を強制することで、さまざまな設定で柔軟性が得られます。
論文 参考訳(メタデータ) (2022-02-22T20:55:31Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - VidLanKD: Improving Language Understanding via Video-Distilled Knowledge
Transfer [76.3906723777229]
言語理解を改善するためのビデオ言語知識蒸留法VidLanKDを提案する。
我々は、ビデオテキストデータセット上でマルチモーダル教師モデルを訓練し、その知識をテキストデータセットを用いて学生言語モデルに伝達する。
我々の実験では、VidLanKDはテキストのみの言語モデルや発声モデルよりも一貫した改善を実現している。
論文 参考訳(メタデータ) (2021-07-06T15:41:32Z) - Transfer Learning Approach for Arabic Offensive Language Detection
System -- BERT-Based Model [0.0]
サイバーヘイト、オンラインハラスメント、その他のテクノロジーの誤用が増えている。
ナチュラル・ランゲージ・プロセッシング(NLP)分野の高度な技術を活用して、オンラインヘイトフリーコミュニティの開発を支援することは、社会正義にとって重要な課題である。
本研究は,複数のアラビア語攻撃言語データセットに対する双方向変換モデル(BERT)の微調整と訓練の効果を個別に検討することを目的とする。
論文 参考訳(メタデータ) (2021-02-09T04:58:18Z) - Meta-Transfer Learning for Code-Switched Speech Recognition [72.84247387728999]
低リソース環境下でのコード切替音声認識システムにおける学習を伝達するメタトランスファー学習法を提案する。
本モデルでは,コードスイッチングデータに最適化を条件付けることにより,個々の言語を識別し,混合言語音声をよりよく認識できるように変換する。
論文 参考訳(メタデータ) (2020-04-29T14:27:19Z) - Kungfupanda at SemEval-2020 Task 12: BERT-Based Multi-Task Learning for
Offensive Language Detection [55.445023584632175]
我々は,マルチタスク学習とBERTモデルを組み合わせた攻撃的言語検出システムを構築した。
我々のモデルは、英語のサブタスクAで91.51%のF1スコアを獲得し、これは第1位に匹敵する。
論文 参考訳(メタデータ) (2020-04-28T11:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。