論文の概要: Sociocultural Considerations in Monitoring Anti-LGBTQ+ Content on Social Media
- arxiv url: http://arxiv.org/abs/2407.01149v1
- Date: Mon, 1 Jul 2024 10:17:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-03 21:59:43.070821
- Title: Sociocultural Considerations in Monitoring Anti-LGBTQ+ Content on Social Media
- Title(参考訳): ソーシャルメディア上でのLGBTQ+コンテンツ監視における社会文化的考察
- Authors: Sidney G. -J. Wong,
- Abstract要約: オープンソーストレーニングデータの開発におけるアンチLGBTQ+スラーのキーワード検索アプローチは、スラーに過度に適合する検出モデルを奨励する。
実証的なアウトプットと質的な洞察を組み合わせることで、これらのシステムが目的に合うようにすることを推奨します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The purpose of this paper is to ascertain the influence of sociocultural factors (i.e., social, cultural, and political) in the development of hate speech detection systems. We set out to investigate the suitability of using open-source training data to monitor levels of anti-LGBTQ+ content on social media across different national-varieties of English. Our findings suggests the social and cultural alignment of open-source hate speech data sets influences the predicted outputs. Furthermore, the keyword-search approach of anti-LGBTQ+ slurs in the development of open-source training data encourages detection models to overfit on slurs; therefore, anti-LGBTQ+ content may go undetected. We recommend combining empirical outputs with qualitative insights to ensure these systems are fit for purpose.
- Abstract(参考訳): 本研究の目的は,ヘイトスピーチ検出システムの開発における社会文化的要因(社会的,文化的,政治的)の影響を明らかにすることである。
そこで我々は,オープンソーストレーニングデータを用いて,ソーシャルメディア上のLGBTQ+コンテンツのレベルを英語の異なる国で監視する方法について検討した。
その結果,オープンソースのヘイトスピーチデータセットの社会的・文化的アライメントが,予測出力に影響を与えることが示唆された。
さらに、オープンソースのトレーニングデータ開発におけるアンチLGBTQ+スラーのキーワード検索アプローチは、スラーに過度に適合する検出モデルを促進するため、アンチLGBTQ+コンテンツは検出されない可能性がある。
実証的なアウトプットと質的な洞察を組み合わせることで、これらのシステムが目的に合うようにすることを推奨します。
関連論文リスト
- Online Social Support Detection in Spanish Social Media Texts [4.110335292722527]
本研究では、スペイン語のソーシャルメディアテキストにおけるオンラインソーシャルサポートを検出するための革新的なアプローチを提案する。
このタスクのために特別に作成された最初の注釈付きデータセットを導入し、サポート的または非サポート的に分類される3,189のYouTubeコメントを含む。
次に、従来の機械学習モデル、ディープラーニングアーキテクチャ、GPT-4oを含むトランスフォーマーベースモデルを用いたソーシャルサポート分類の評価を行った。
論文 参考訳(メタデータ) (2025-02-10T04:04:23Z) - A Federated Approach to Few-Shot Hate Speech Detection for Marginalized Communities [43.37824420609252]
ネット上でのヘイトスピーチは、辺境化コミュニティにとって未検討の課題だ。
本稿では,インターネット上のヘイトスピーチから身を守るためのプライバシ保護ツールを用いて,支配的言語が低リソースの社会に居住する疎外化コミュニティを提供することを目的とする。
論文 参考訳(メタデータ) (2024-12-06T11:00:05Z) - Evaluating Cultural and Social Awareness of LLM Web Agents [113.49968423990616]
CASAは,大規模言語モデルの文化的・社会的規範に対する感受性を評価するためのベンチマークである。
提案手法は,標準に違反するユーザクエリや観察を検知し,適切に応答するLLMエージェントの能力を評価する。
実験により、現在のLLMは非エージェント環境で大幅に性能が向上していることが示された。
論文 参考訳(メタデータ) (2024-10-30T17:35:44Z) - Scalable Frame-based Construction of Sociocultural NormBases for Socially-Aware Dialogues [66.69453609603875]
社会文化的規範は、社会的相互作用における個人的行為の指針となる。
大規模言語モデル(LLM)を用いた社会文化的ノルム(SCN)ベース構築のためのスケーラブルなアプローチを提案する。
我々は、包括的で広くアクセス可能な中国社会文化ノルムベースを構築した。
論文 参考訳(メタデータ) (2024-10-04T00:08:46Z) - CulturePark: Boosting Cross-cultural Understanding in Large Language Models [63.452948673344395]
本稿では,LLMを利用した文化データ収集のためのマルチエージェント通信フレームワークであるCultureParkを紹介する。
人間の信念、規範、習慣をカプセル化した高品質な異文化対話を生成する。
我々はこれらのモデルを,コンテンツモデレーション,文化的アライメント,文化教育という3つの下流課題にまたがって評価する。
論文 参考訳(メタデータ) (2024-05-24T01:49:02Z) - CIVICS: Building a Dataset for Examining Culturally-Informed Values in Large Language Models [59.22460740026037]
大規模言語モデル(LLM)の社会的・文化的変動を評価するためのデータセット「CIVICS:文化インフォームド・バリュース・インクルーシブ・コーパス・フォー・ソシエティ・インパクト」
我々は、LGBTQIの権利、社会福祉、移民、障害権利、代理など、特定の社会的に敏感なトピックに対処する、手作りの多言語プロンプトのデータセットを作成します。
論文 参考訳(メタデータ) (2024-05-22T20:19:10Z) - Analysis and Detection of Multilingual Hate Speech Using Transformer
Based Deep Learning [7.332311991395427]
ヘイトスピーチの普及に伴い,NLPタスクとしての自動検出の需要が高まっている。
本研究では、Twitter、Facebook、WhatsApp、Instagramなどのソーシャルメディアにおけるヘイトスピーチを検出するために、トランスフォーマーベースのモデルを提案する。
金の標準データセットは、著名な研究者Zeerak Talat、Sara Tonelli、Melanie Siegel、Rezaul Karimから収集された。
ヘイトスピーチ検出のための提案されたモデルの成功率は、ベンガルデータセットの精度の高い既存のベースラインや最先端モデルよりも高く、英語では89%、ドイツ語では91%である。
論文 参考訳(メタデータ) (2024-01-19T20:40:23Z) - A Group-Specific Approach to NLP for Hate Speech Detection [2.538209532048867]
オンラインヘイトスピーチ検出のためのグループ固有のNLPアプローチを提案する。
我々は、保護されたグループに対する差別に関する歴史的データを分析し、そのグループに対するヘイトスピーチのスパイクを予測する。
我々は,NLPによる反ユダヤ的ヘイトスピーチの検出を事例として,この手法を実証する。
論文 参考訳(メタデータ) (2023-04-21T19:08:49Z) - Detecting Harmful Online Conversational Content towards LGBTQIA+
Individuals [30.03410762695714]
この研究は現実世界のデータセットを導入し、有害なオンライン会話コンテンツの研究と理解を可能にします。
2つのベースライン機械学習モデルと、事前訓練された3つの大規模言語モデルを実装した。
以上の結果から,オンライン対LGBTQIA+会話コンテンツ検出タスクにおいて,大規模言語モデルが非常に有望な性能が得られることが確認された。
論文 参考訳(メタデータ) (2022-06-15T20:14:02Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。