論文の概要: A Framework for the Computational Linguistic Analysis of Dehumanization
- arxiv url: http://arxiv.org/abs/2003.03014v2
- Date: Wed, 17 Jun 2020 20:00:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 01:21:01.076160
- Title: A Framework for the Computational Linguistic Analysis of Dehumanization
- Title(参考訳): 非人間化の計算言語解析のための枠組み
- Authors: Julia Mendelsohn, Yulia Tsvetkov, Dan Jurafsky
- Abstract要約: 我々は1986年から2015年にかけてニューヨーク・タイムズでLGBTQの人々に関する議論を分析した。
LGBTQの人々の人為的な記述は、時間とともにますます増えています。
大規模に非人間化言語を分析する能力は、メディアバイアスを自動的に検出し、理解するだけでなく、オンラインで乱用する言語にも影響を及ぼす。
- 参考スコア(独自算出の注目度): 52.735780962665814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dehumanization is a pernicious psychological process that often leads to
extreme intergroup bias, hate speech, and violence aimed at targeted social
groups. Despite these serious consequences and the wealth of available data,
dehumanization has not yet been computationally studied on a large scale.
Drawing upon social psychology research, we create a computational linguistic
framework for analyzing dehumanizing language by identifying linguistic
correlates of salient components of dehumanization. We then apply this
framework to analyze discussions of LGBTQ people in the New York Times from
1986 to 2015. Overall, we find increasingly humanizing descriptions of LGBTQ
people over time. However, we find that the label homosexual has emerged to be
much more strongly associated with dehumanizing attitudes than other labels,
such as gay. Our proposed techniques highlight processes of linguistic
variation and change in discourses surrounding marginalized groups.
Furthermore, the ability to analyze dehumanizing language at a large scale has
implications for automatically detecting and understanding media bias as well
as abusive language online.
- Abstract(参考訳): 非人道化(dehumanization)は、過激なグループ間バイアス、ヘイトスピーチ、ターゲットとする社会グループを対象とした暴力につながる、有害な心理的プロセスである。
これらの深刻な結果と利用可能なデータの豊富さにもかかわらず、非人間化は大規模に計算的に研究されていない。
社会心理学研究に基づき,非人間化の顕著な構成要素の言語的相関を同定し,非人間化言語を解析するための計算言語学的枠組みを構築した。
次に、1986年から2015年までニューヨーク・タイムズのlgbtqの人々の議論を分析するためにこの枠組みを適用した。
全体として、LGBTQの人々の人道的な記述は徐々に増えていく。
しかし、同性愛者というラベルはゲイなど他のレーベルよりも非人間的な態度に強く関連していることが判明した。
提案手法は,言語変化の過程と,辺縁化群を取り巻く談話の変化を強調する。
さらに、非人間化言語を大規模に分析する能力は、オンラインの虐待言語と同様に、メディアバイアスの自動検出と理解に意味を持つ。
関連論文リスト
- A Taxonomy of Linguistic Expressions That Contribute To Anthropomorphism of Language Technologies [55.99010491370177]
擬人化とは、非人間的な対象や実体に対する人間のような性質の帰属である。
人為的同型の影響を生産的に議論するためには、言語が成型できる様々な方法の共通語彙が必要である。
論文 参考訳(メタデータ) (2025-02-14T02:43:46Z) - QueerBench: Quantifying Discrimination in Language Models Toward Queer Identities [4.82206141686275]
我々は、LGBTQIA+の個人に関する英語大言語モデルによって生成された文の完成によって引き起こされる潜在的害を評価する。
この分析は、大きな言語モデルはLGBTQIA+コミュニティ内の個人に対してより頻繁に差別的行動を示す傾向があることを示している。
論文 参考訳(メタデータ) (2024-06-18T08:40:29Z) - Beyond Hate Speech: NLP's Challenges and Opportunities in Uncovering
Dehumanizing Language [11.946719280041789]
本稿では, GPT-4, GPT-3.5, LLAMA-2を含む最先端NLPモデルの性能評価を行った。
以上の結果から,これらのモデルが潜在的な可能性を示し,より広範なヘイトスピーチと非人間化言語を区別する精度が70%に達する一方で,バイアスも示していることがわかった。
論文 参考訳(メタデータ) (2024-02-21T13:57:36Z) - A Dataset for the Detection of Dehumanizing Language [3.2803526084968895]
そこで本研究では,非人間化テキストの2つのデータセット,大規模な自動収集コーパス,より小さな手動注釈付きデータセットを提案する。
提案手法により,多種多様な非人間化データを扱えるようになり,さらなる探索分析と非人間化パターンの自動分類が可能となった。
論文 参考訳(メタデータ) (2024-02-13T19:58:24Z) - Developing Linguistic Patterns to Mitigate Inherent Human Bias in
Offensive Language Detection [1.6574413179773761]
本稿では,ラベル付けプロセスにおけるバイアスを低減するための言語データ拡張手法を提案する。
このアプローチは、複数の言語にわたる攻撃的な言語分類タスクを改善する可能性がある。
論文 参考訳(メタデータ) (2023-12-04T10:20:36Z) - Quantifying the Dialect Gap and its Correlates Across Languages [69.18461982439031]
この研究は、明らかな相違を明らかにし、マインドフルなデータ収集を通じてそれらに対処する可能性のある経路を特定することによって、方言NLPの分野を強化する基盤となる。
論文 参考訳(メタデータ) (2023-10-23T17:42:01Z) - Cross-Lingual Cross-Age Group Adaptation for Low-Resource Elderly Speech
Emotion Recognition [48.29355616574199]
我々は、英語、中国語、カントン語という3つの異なる言語における感情認識の伝達可能性を分析する。
本研究は,異なる言語群と年齢群が特定の音声特徴を必要とすることを結論し,言語間推論を不適切な方法とする。
論文 参考訳(メタデータ) (2023-06-26T08:48:08Z) - "I'm fully who I am": Towards Centering Transgender and Non-Binary
Voices to Measure Biases in Open Language Generation [69.25368160338043]
トランスジェンダーとノンバイナリ(TGNB)の個人は、日常生活から差別や排除を不当に経験している。
オープン・ランゲージ・ジェネレーションにおいて,経験豊富なTGNB人物の疎外化を取り巻く社会的現実がいかに貢献し,持続するかを評価する。
我々はTGNB指向のコミュニティからキュレートされたテンプレートベースの実世界のテキストのデータセットであるTANGOを紹介する。
論文 参考訳(メタデータ) (2023-05-17T04:21:45Z) - Revealing Persona Biases in Dialogue Systems [64.96908171646808]
対話システムにおけるペルソナバイアスに関する最初の大規模研究について述べる。
我々は、異なる社会階級、性的指向、人種、性別のペルソナの分析を行う。
BlenderおよびDialoGPT対話システムの研究では、ペルソナの選択が生成された応答の害の程度に影響を与える可能性があることを示しています。
論文 参考訳(メタデータ) (2021-04-18T05:44:41Z) - Multilingual Contextual Affective Analysis of LGBT People Portrayals in
Wikipedia [34.183132688084534]
物語文における特定の語彙選択は、物語の中の人々に対する作家の態度を反映し、聴衆の反応に影響を与える。
言語や文化によって単語の意味がどう異なるかを示し、既存の英語データセットを一般化することの難しさを浮き彫りにしている。
次に、LGBTコミュニティのメンバーのウィキペディアの伝記ページを3つの言語で分析することで、本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-10-21T08:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。