論文の概要: Sociocultural Considerations in Monitoring Anti-LGBTQ+ Content on Social Media
- arxiv url: http://arxiv.org/abs/2407.01149v1
- Date: Mon, 1 Jul 2024 10:17:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-03 21:59:43.070821
- Title: Sociocultural Considerations in Monitoring Anti-LGBTQ+ Content on Social Media
- Title(参考訳): ソーシャルメディア上でのLGBTQ+コンテンツ監視における社会文化的考察
- Authors: Sidney G. -J. Wong,
- Abstract要約: オープンソーストレーニングデータの開発におけるアンチLGBTQ+スラーのキーワード検索アプローチは、スラーに過度に適合する検出モデルを奨励する。
実証的なアウトプットと質的な洞察を組み合わせることで、これらのシステムが目的に合うようにすることを推奨します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The purpose of this paper is to ascertain the influence of sociocultural factors (i.e., social, cultural, and political) in the development of hate speech detection systems. We set out to investigate the suitability of using open-source training data to monitor levels of anti-LGBTQ+ content on social media across different national-varieties of English. Our findings suggests the social and cultural alignment of open-source hate speech data sets influences the predicted outputs. Furthermore, the keyword-search approach of anti-LGBTQ+ slurs in the development of open-source training data encourages detection models to overfit on slurs; therefore, anti-LGBTQ+ content may go undetected. We recommend combining empirical outputs with qualitative insights to ensure these systems are fit for purpose.
- Abstract(参考訳): 本研究の目的は,ヘイトスピーチ検出システムの開発における社会文化的要因(社会的,文化的,政治的)の影響を明らかにすることである。
そこで我々は,オープンソーストレーニングデータを用いて,ソーシャルメディア上のLGBTQ+コンテンツのレベルを英語の異なる国で監視する方法について検討した。
その結果,オープンソースのヘイトスピーチデータセットの社会的・文化的アライメントが,予測出力に影響を与えることが示唆された。
さらに、オープンソースのトレーニングデータ開発におけるアンチLGBTQ+スラーのキーワード検索アプローチは、スラーに過度に適合する検出モデルを促進するため、アンチLGBTQ+コンテンツは検出されない可能性がある。
実証的なアウトプットと質的な洞察を組み合わせることで、これらのシステムが目的に合うようにすることを推奨します。
関連論文リスト
- Extrinsic Evaluation of Cultural Competence in Large Language Models [53.626808086522985]
本稿では,2つのテキスト生成タスクにおける文化能力の評価に焦点をあてる。
我々は,文化,特に国籍の明示的なキューが,そのプロンプトに乱入している場合のモデル出力を評価する。
異なる国におけるアウトプットのテキスト類似性とこれらの国の文化的価値との間には弱い相関関係がある。
論文 参考訳(メタデータ) (2024-06-17T14:03:27Z) - CulturePark: Boosting Cross-cultural Understanding in Large Language Models [63.452948673344395]
本稿では,LLMを利用した文化データ収集のためのマルチエージェント通信フレームワークであるCultureParkを紹介する。
人間の信念、規範、習慣をカプセル化した高品質な異文化対話を生成する。
我々はこれらのモデルを,コンテンツモデレーション,文化的アライメント,文化教育という3つの下流課題にまたがって評価する。
論文 参考訳(メタデータ) (2024-05-24T01:49:02Z) - CIVICS: Building a Dataset for Examining Culturally-Informed Values in Large Language Models [59.22460740026037]
大規模言語モデル(LLM)の社会的・文化的変動を評価するためのデータセット「CIVICS:文化インフォームド・バリュース・インクルーシブ・コーパス・フォー・ソシエティ・インパクト」
我々は、LGBTQIの権利、社会福祉、移民、障害権利、代理など、特定の社会的に敏感なトピックに対処する、手作りの多言語プロンプトのデータセットを作成します。
論文 参考訳(メタデータ) (2024-05-22T20:19:10Z) - Analysis and Detection of Multilingual Hate Speech Using Transformer
Based Deep Learning [7.332311991395427]
ヘイトスピーチの普及に伴い,NLPタスクとしての自動検出の需要が高まっている。
本研究では、Twitter、Facebook、WhatsApp、Instagramなどのソーシャルメディアにおけるヘイトスピーチを検出するために、トランスフォーマーベースのモデルを提案する。
金の標準データセットは、著名な研究者Zeerak Talat、Sara Tonelli、Melanie Siegel、Rezaul Karimから収集された。
ヘイトスピーチ検出のための提案されたモデルの成功率は、ベンガルデータセットの精度の高い既存のベースラインや最先端モデルよりも高く、英語では89%、ドイツ語では91%である。
論文 参考訳(メタデータ) (2024-01-19T20:40:23Z) - A Group-Specific Approach to NLP for Hate Speech Detection [2.538209532048867]
オンラインヘイトスピーチ検出のためのグループ固有のNLPアプローチを提案する。
我々は、保護されたグループに対する差別に関する歴史的データを分析し、そのグループに対するヘイトスピーチのスパイクを予測する。
我々は,NLPによる反ユダヤ的ヘイトスピーチの検出を事例として,この手法を実証する。
論文 参考訳(メタデータ) (2023-04-21T19:08:49Z) - Tackling Hate Speech in Low-resource Languages with Context Experts [7.5217405965075095]
本稿では,ミャンマーにおけるヘイトスピーチの自動検出に関する遠隔研究から得られた知見を報告する。
この問題に効果的に対処するには、コンテキストエキスパートの知識と機械学習ツールを組み合わせたコミュニティベースのアプローチが必要であると我々は主張する。
論文 参考訳(メタデータ) (2023-03-29T16:24:22Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Measuring Commonality in Recommendation of Cultural Content: Recommender
Systems to Enhance Cultural Citizenship [67.5613995938273]
そこで本稿では,文化内容の特定のカテゴリにおいて,特定のユーザ集団に親しみのあるレコメンデーションの度合いを反映した新しい尺度として,共通性を導入する。
以上の結果から,共通性は既存の指標と相補的なシステム行動の特性を捉え,利用者の文化的市民性を高めることを目的としたリコメンデータシステムにおける代替的非個人化介入の必要性が示唆された。
論文 参考訳(メタデータ) (2022-08-02T19:14:49Z) - Detecting Harmful Online Conversational Content towards LGBTQIA+
Individuals [30.03410762695714]
この研究は現実世界のデータセットを導入し、有害なオンライン会話コンテンツの研究と理解を可能にします。
2つのベースライン機械学習モデルと、事前訓練された3つの大規模言語モデルを実装した。
以上の結果から,オンライン対LGBTQIA+会話コンテンツ検出タスクにおいて,大規模言語モデルが非常に有望な性能が得られることが確認された。
論文 参考訳(メタデータ) (2022-06-15T20:14:02Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - MigrationsKB: A Knowledge Base of Public Attitudes towards Migrations
and their Driving Factors [1.6973426830397942]
本研究は、移住に対する大衆の態度を定量化するためのソーシャルメディアプラットフォームの分析である。
移民のホストである欧州諸国では、2013年からJul-2021にかけてのツイートが収集されている。
外部データベースは、移住に対する人々の否定的な態度を引き起こす潜在的な社会的・経済的要因を特定するために使用される。
論文 参考訳(メタデータ) (2021-08-17T12:50:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。