論文の概要: Anti-Sexism Alert System: Identification of Sexist Comments on Social
Media Using AI Techniques
- arxiv url: http://arxiv.org/abs/2312.00053v1
- Date: Tue, 28 Nov 2023 19:48:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 03:43:17.132482
- Title: Anti-Sexism Alert System: Identification of Sexist Comments on Social
Media Using AI Techniques
- Title(参考訳): 反セクシズムアラートシステム:AI技術を用いたソーシャルメディア上のセクシストコメントの同定
- Authors: Rebeca P. D\'iaz Redondo and Ana Fern\'andez Vilas and Mateo Ramos
Merino and Sonia Valladares and Soledad Torres Guijarro and Manar Mohamed
Hafez
- Abstract要約: ソーシャルメディア(新聞記事のコメント、ソーシャルネットワークなど)に投稿された性的なコメントは、通常多くの注目を集め、ウイルスに感染し、関係者に被害を与える。
本稿では,自然言語処理(NLP)と人工知能(AI)に基づく反性行為警告システムを提案する。
このシステムはあらゆる公開投稿を分析し、性差別的なコメントと見なせるかどうかを判断する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social relationships in the digital sphere are becoming more usual and
frequent, and they constitute a very important aspect for all of us. {Violent
interactions in this sphere are very frequent, and have serious effects on the
victims}. Within this global scenario, there is one kind of digital violence
that is becoming really worrying: sexism against women. Sexist comments that
are publicly posted in social media (newspaper comments, social networks,
etc.), usually obtain a lot of attention and become viral, with consequent
damage to the persons involved. In this paper, we introduce an anti-sexism
alert system, based on natural language processing (NLP) and artificial
intelligence (AI), that analyzes any public post, and decides if it could be
considered a sexist comment or not. Additionally, this system also works on
analyzing all the public comments linked to any multimedia content (piece of
news, video, tweet, etc.) and decides, using a color-based system similar to
traffic lights, if there is sexism in the global set of posts. We have created
a labeled data set in Spanish, since the majority of studies focus on English,
to train our system, which offers a very good performance after the validation
experiments.
- Abstract(参考訳): デジタル分野における社会的関係は、より日常的で頻繁になり、私たち全員にとって非常に重要な側面となっている。
この領域における暴力的相互作用は非常に頻繁に、犠牲者に深刻な影響を及ぼす。
この世界的シナリオでは、女性に対する性差別という、本当に心配なデジタル暴力がひとつあります。
ソーシャルメディア(newspaperコメント、sns等)に公開されている性差別的なコメントは、通常多くの注目を集めてバイラルになり、関係者にダメージを与える。
本稿では、自然言語処理(NLP)と人工知能(AI)に基づいて、あらゆる公開投稿を分析し、性差別的コメントとみなすことができるかどうかを判断する反性差別警告システムを提案する。
さらに、このシステムは、あらゆるマルチメディアコンテンツ(ニュース、ビデオ、ツイートなど)にリンクされたすべての公開コメントを分析し、グローバル投稿に性差別がある場合、交通信号に似た色ベースのシステムを使用して決定する。
私たちはスペイン語でラベル付きデータセットを作成しましたが、ほとんどの研究は英語に焦点を合わせており、検証実験後に非常に優れたパフォーマンスを提供する。
関連論文リスト
- A Holistic Indicator of Polarization to Measure Online Sexism [2.498836880652668]
ソーシャルネットワークにおけるマノアとフェミニストの議論のオンライン傾向は、オンラインコミュニティにおける性差別のレベルを包括的に測定する必要がある。
この指標は、オンラインコミュニティの政策立案者やモデレーターにとって重要である。
我々は、男性と女性のアイデンティティと男女の個人を対象とする毒性の総合的な指標を提供するモデルを構築した。
論文 参考訳(メタデータ) (2024-04-02T18:00:42Z) - Exploratory Data Analysis on Code-mixed Misogynistic Comments [0.0]
我々は、ミックスコードHinglishでYouTubeコメントの新しいデータセットを提示する。
これらのコメントは「ミソジニスト」と「非ミソジニスト」とラベル付けされている。
論文 参考訳(メタデータ) (2024-03-09T23:21:17Z) - "I'm fully who I am": Towards Centering Transgender and Non-Binary
Voices to Measure Biases in Open Language Generation [69.25368160338043]
トランスジェンダーとノンバイナリ(TGNB)の個人は、日常生活から差別や排除を不当に経験している。
オープン・ランゲージ・ジェネレーションにおいて,経験豊富なTGNB人物の疎外化を取り巻く社会的現実がいかに貢献し,持続するかを評価する。
我々はTGNB指向のコミュニティからキュレートされたテンプレートベースの実世界のテキストのデータセットであるTANGOを紹介する。
論文 参考訳(メタデータ) (2023-05-17T04:21:45Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - #ContextMatters: Advantages and Limitations of Using Machine Learning to
Support Women in Politics [0.15749416770494704]
ParityBOTはカナダ、アメリカ合衆国、ニュージーランドで選挙が行われた。
女性候補者に向けられた1200万件以上のツイートを分析して分類し、支持的なツイートで有害なツイートに対処するために使われた。
本研究では,ParityBOTが特定の女性に向けられた侮辱を取り上げなかった偽陰性率について検討した。
論文 参考訳(メタデータ) (2021-09-30T22:55:49Z) - Robustness Disparities in Commercial Face Detection [72.25318723264215]
私たちは、Amazon Rekognition、Microsoft Azure、Google Cloud Platformの3つのシステムの堅牢性に関する、この種の詳細なベンチマークを初めて提示します。
一般的には、年齢、男性像、肌型、薄暗い色合いの人物の写真は、他のアイデンティティーの人物よりも、エラーの影響を受けやすいことが分かりました。
論文 参考訳(メタデータ) (2021-08-27T21:37:16Z) - SWSR: A Chinese Dataset and Lexicon for Online Sexism Detection [9.443571652110663]
中国初の性差別データセットであるSina Weibo Sexism Review(SWSR)データセットと、中国の大型レキシコンSexHateLexを提案する。
SWSRデータセットは、(i)性差別または非性差別、(ii)性差別カテゴリー、(iii)ターゲットタイプなど、さまざまなレベルの粒度のラベルを提供する。
我々は、最先端の機械学習モデルを用いた3つの性差別分類タスクの実験を行う。
論文 参考訳(メタデータ) (2021-08-06T12:06:40Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Automatic Detection of Sexist Statements Commonly Used at the Workplace [0.9790236766474201]
職場で言うことが多い性差別的発言のデータセットを提示する。
また,最先端の成果を得られる深層学習モデルを提案する。
論文 参考訳(メタデータ) (2020-07-08T15:14:29Z) - Echo Chambers on Social Media: A comparative analysis [64.2256216637683]
本研究では,4つのソーシャルメディアプラットフォーム上で100万ユーザが生成した100万個のコンテンツに対して,エコーチャンバーの操作的定義を導入し,大規模な比較分析を行う。
議論の的になっているトピックについてユーザの傾きを推測し、異なる特徴を分析してインタラクションネットワークを再構築する。
我々は、Facebookのようなニュースフィードアルゴリズムを実装するプラットフォームが、エコーチャンバの出現を招きかねないという仮説を支持する。
論文 参考訳(メタデータ) (2020-04-20T20:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。