論文の概要: Hidden behind the obvious: misleading keywords and implicitly abusive
language on social media
- arxiv url: http://arxiv.org/abs/2205.01374v1
- Date: Tue, 3 May 2022 08:46:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-04 14:31:16.644491
- Title: Hidden behind the obvious: misleading keywords and implicitly abusive
language on social media
- Title(参考訳): わかりやすいキーワードと暗黙的に虐待的な言葉をソーシャルメディアに隠す
- Authors: Wenjie Yin, Arkaitz Zubiaga
- Abstract要約: 本研究は, モデルが (1a) と (1b) でミスを犯す方法と (1a) と (1b) が (2) とどのように相互作用するかに焦点を当てる。
この分析を通じて,3つの問題に対処するための今後の研究を提案する。
- 参考スコア(独自算出の注目度): 16.39344929765961
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While social media offers freedom of self-expression, abusive language carry
significant negative social impact. Driven by the importance of the issue,
research in the automated detection of abusive language has witnessed growth
and improvement. However, these detection models display a reliance on strongly
indicative keywords, such as slurs and profanity. This means that they can
falsely (1a) miss abuse without such keywords or (1b) flag non-abuse with such
keywords, and that (2) they perform poorly on unseen data. Despite the
recognition of these problems, gaps and inconsistencies remain in the
literature. In this study, we analyse the impact of keywords from dataset
construction to model behaviour in detail, with a focus on how models make
mistakes on (1a) and (1b), and how (1a) and (1b) interact with (2). Through the
analysis, we provide suggestions for future research to address all three
problems.
- Abstract(参考訳): ソーシャルメディアは自己表現の自由を提供するが、虐待的な言語は大きな社会的影響をもたらす。
問題の重要性によって、虐待言語の自動検出の研究は、成長と改善を目撃している。
しかし、これらの検出モデルは、スラリーやプロファニティのような強い指示的キーワードに依存する。
つまり、1a)そのようなキーワードを使わずに誤用、または(1b)そのようなキーワードを伴わないフラグを誤用でき、(2)見当たらないデータでは性能が低下する。
これらの問題の認識にもかかわらず、ギャップと矛盾は文献に残されている。
本研究では,データセット構築からモデル行動へのキーワードの影響を詳細に分析し,モデルが (1a) と (1b) をどのようにミスするか, (1a) と (1b) が (2) とどのように相互作用するかに注目した。
分析を通じて,3つの問題すべてに対処するための今後の研究への提案を行う。
関連論文リスト
- Causal Micro-Narratives [62.47217054314046]
テキストから因果マイクロナラティブを分類する新しい手法を提案する。
これらの物語は、対象対象の因果関係と/または効果の文レベルの説明である。
論文 参考訳(メタデータ) (2024-10-07T17:55:10Z) - Examining Temporal Bias in Abusive Language Detection [3.465144840147315]
乱用言語を自動的に検出する機械学習モデルが開発されている。
これらのモデルは、時間とともに話題、言語の使用、社会的規範が変化する現象である時間的偏見に悩まされる。
本研究では,多言語にわたる虐待的言語検出における時間的バイアスの性質と影響について検討した。
論文 参考訳(メタデータ) (2023-09-25T13:59:39Z) - How to Solve Few-Shot Abusive Content Detection Using the Data We Actually Have [58.23138483086277]
この作業では、すでに持っているデータセットを活用し、虐待的な言語検出に関連する幅広いタスクをカバーしています。
私たちのゴールは、ターゲットドメインのトレーニング例を少しだけ使用して、新しいターゲットラベルセットや/または言語のために、安価にモデルを構築することです。
実験の結果、すでに存在するデータセットと、対象タスクのほんの数ショットしか使用していないモデルの性能が、モノリンガル言語と言語間で改善されていることがわかった。
論文 参考訳(メタデータ) (2023-05-23T14:04:12Z) - Hate Speech and Offensive Language Detection using an Emotion-aware
Shared Encoder [1.8734449181723825]
ヘイトスピーチと攻撃的言語検出に関する既存の研究は、事前学習されたトランスフォーマーモデルに基づいて有望な結果をもたらす。
本稿では,他コーパスから抽出した外的感情特徴を組み合わせたマルチタスク共同学習手法を提案する。
以上の結果から,感情的な知識が,データセット間のヘイトスピーチや攻撃的言語をより確実に識別する上で有効であることが示唆された。
論文 参考訳(メタデータ) (2023-02-17T09:31:06Z) - Data Bootstrapping Approaches to Improve Low Resource Abusive Language
Detection for Indic Languages [5.51252705016179]
Indic言語における多言語乱用音声の大規模分析を実演する。
本研究では,異なる言語間伝達機構について検討し,様々な多言語モデルによる虐待的音声検出の性能について検討する。
論文 参考訳(メタデータ) (2022-04-26T18:56:01Z) - Anti-Asian Hate Speech Detection via Data Augmented Semantic Relation
Inference [4.885207279350052]
本稿では,自然言語推論フレームワークにおけるヘイトスピーチ検出を強化するために,感情ハッシュタグを活用する新しい手法を提案する。
我々は,(1)オンライン投稿と感情ハッシュタグ間の意味的関係推論,(2)これらの投稿に対する感情分類の2つのタスクを同時に実行する新しいフレームワークSRICを設計する。
論文 参考訳(メタデータ) (2022-04-14T15:03:35Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - AES Systems Are Both Overstable And Oversensitive: Explaining Why And
Proposing Defenses [66.49753193098356]
スコアリングモデルの驚くべき逆方向の脆さの原因について検討する。
のモデルとして訓練されているにもかかわらず、単語の袋のように振る舞うことを示唆している。
高い精度で試料を発生させる過敏性と過敏性を検出できる検出ベース保護モデルを提案する。
論文 参考訳(メタデータ) (2021-09-24T03:49:38Z) - My Teacher Thinks The World Is Flat! Interpreting Automatic Essay
Scoring Mechanism [71.34160809068996]
最近の研究では、自動スコアリングシステムが常識的な敵対的サンプルになりやすいことが示されています。
近年の解釈能力の進歩を活かし,コヒーレンスやコンテント,関連性といった特徴がスコアリングの自動化にどの程度重要であるかを見出す。
また、モデルが意味的に世界知識や常識に基づかないことから、世界のような虚偽の事実を追加することは、それを減らすよりもむしろスコアを増加させる。
論文 参考訳(メタデータ) (2020-12-27T06:19:20Z) - Joint Modelling of Emotion and Abusive Language Detection [26.18171134454037]
マルチタスク学習フレームワークを用いて,感情と虐待的言語検出の最初のジョイントモデルを提案する。
その結果、感情的特徴を取り入れることで、データセット間での悪用検出性能が大幅に向上することが示された。
論文 参考訳(メタデータ) (2020-05-28T14:08:40Z) - On Vocabulary Reliance in Scene Text Recognition [79.21737876442253]
ボキャブラリ内の単語を持つ画像に対して、手法は良好に機能するが、ボキャブラリ外の単語を持つ画像にはあまり一般化しない。
私たちはこの現象を「語彙依存」と呼んでいる。
本研究では,2家族のモデルが協調的に学習できるようにするための,シンプルで効果的な相互学習戦略を提案する。
論文 参考訳(メタデータ) (2020-05-08T11:16:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。