論文の概要: Stereotype Detection in Natural Language Processing
- arxiv url: http://arxiv.org/abs/2505.17642v1
- Date: Fri, 23 May 2025 09:03:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:33.94257
- Title: Stereotype Detection in Natural Language Processing
- Title(参考訳): 自然言語処理におけるステレオタイプ検出
- Authors: Alessandra Teresa Cignarella, Anastasia Giachanou, Els Lefever,
- Abstract要約: ステレオタイプは社会的知覚に影響を与え、差別や暴力へとエスカレートする。
この研究は、心理学、社会学、哲学からの定義を分析し、既存の研究を調査する。
発見は、偏見のエスカレーションやヘイトスピーチの台頭を防ぐための早期監視ツールとしてステレオタイプ検出を強調している。
- 参考スコア(独自算出の注目度): 47.91542090964054
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Stereotypes influence social perceptions and can escalate into discrimination and violence. While NLP research has extensively addressed gender bias and hate speech, stereotype detection remains an emerging field with significant societal implications. In this work is presented a survey of existing research, analyzing definitions from psychology, sociology, and philosophy. A semi-automatic literature review was performed by using Semantic Scholar. We retrieved and filtered over 6,000 papers (in the year range 2000-2025), identifying key trends, methodologies, challenges and future directions. The findings emphasize stereotype detection as a potential early-monitoring tool to prevent bias escalation and the rise of hate speech. Conclusions highlight the need for a broader, multilingual, and intersectional approach in NLP studies.
- Abstract(参考訳): ステレオタイプは社会的知覚に影響を与え、差別や暴力へとエスカレートする。
NLP研究はジェンダーバイアスとヘイトスピーチに広範囲に対処してきたが、ステレオタイプ検出は社会的に重要な意味を持つ新興分野である。
この研究は、心理学、社会学、哲学からの定義を分析し、既存の研究について調査する。
セミオートマチックな文献レビューはSemantic Scholarを用いて行った。
6,000以上の論文(2000~2025年)を検索・フィルタリングし,主要なトレンド,方法論,課題,今後の方向性を特定した。
この知見は、偏見のエスカレーションやヘイトスピーチの出現を防ぐための早期監視ツールとしてステレオタイプ検出を強調した。
結論は、NLP研究において、より広く、多言語的で、交差的なアプローチの必要性を強調している。
関連論文リスト
- A Survey of Stance Detection on Social Media: New Directions and Perspectives [50.27382951812502]
姿勢検出は 感情コンピューティングにおける 重要なサブフィールドとして現れました
近年は、効果的な姿勢検出手法の開発に対する研究の関心が高まっている。
本稿では,ソーシャルメディア上での姿勢検出手法に関する包括的調査を行う。
論文 参考訳(メタデータ) (2024-09-24T03:06:25Z) - Unveiling Gender Bias in Terms of Profession Across LLMs: Analyzing and
Addressing Sociological Implications [0.0]
この研究は、AI言語モデルにおけるジェンダーバイアスに関する既存の研究を調査し、現在の知識のギャップを特定する。
この結果は,大規模言語モデルのアウトプットに存在する,ジェンダー付き単語関連,言語使用,偏見付き物語に光を当てた。
本稿では,アルゴリズムアプローチやデータ拡張手法など,LSMにおける性別バイアスを低減するための戦略を提案する。
論文 参考訳(メタデータ) (2023-07-18T11:38:45Z) - Sociodemographic Bias in Language Models: A Survey and Forward Path [7.337228289111424]
言語モデル(LM)におけるソシオデモグラフィーバイアスは、現実世界の環境に配置した場合に害を与える可能性がある。
本稿では,過去10年間のLMにおける社会デマトグラフィーバイアス研究の包括的調査について述べる。
論文 参考訳(メタデータ) (2023-06-13T22:07:54Z) - Handling Bias in Toxic Speech Detection: A Survey [26.176340438312376]
本稿では,有毒な音声検出におけるバイアスの評価と緩和手法について検討する。
ケーススタディでは、知識に基づくバイアス緩和によるバイアスシフトの概念を紹介している。
調査は、重要な課題、研究のギャップ、今後の方向性の概要で締めくくっている。
論文 参考訳(メタデータ) (2022-01-26T10:38:36Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - Towards Debiasing Sentence Representations [109.70181221796469]
Sent-Debiasはバイアスを取り除くのに有効であり、同時に文レベルの下流タスクのパフォーマンスを保っていることを示す。
我々は、より公平なNLPのための広く採用されている文表現から社会的偏見を識別・除去する今後の研究に刺激を与えることを期待している。
論文 参考訳(メタデータ) (2020-07-16T04:22:30Z) - A Framework for the Computational Linguistic Analysis of Dehumanization [52.735780962665814]
我々は1986年から2015年にかけてニューヨーク・タイムズでLGBTQの人々に関する議論を分析した。
LGBTQの人々の人為的な記述は、時間とともにますます増えています。
大規模に非人間化言語を分析する能力は、メディアバイアスを自動的に検出し、理解するだけでなく、オンラインで乱用する言語にも影響を及ぼす。
論文 参考訳(メタデータ) (2020-03-06T03:02:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。