論文の概要: Speciesist Language and Nonhuman Animal Bias in English Masked Language
Models
- arxiv url: http://arxiv.org/abs/2203.05140v1
- Date: Thu, 10 Mar 2022 03:32:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-11 14:40:28.978192
- Title: Speciesist Language and Nonhuman Animal Bias in English Masked Language
Models
- Title(参考訳): 英語マスク語モデルにおける種族言語と非ヒト動物バイアス
- Authors: Masashi Takeshita and Rafal Rzepka and Kenji Araki
- Abstract要約: 我々は、英語のマスケッド言語モデルに固有の、非ヒトの動物、すなわち種主義者の偏見を分析した。
実験を再現するためのコードはGitHubで公開します。
- 参考スコア(独自算出の注目度): 14.373699429792687
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Various existing studies have analyzed what social biases are inherited by
NLP models. These biases may directly or indirectly harm people, therefore
previous studies have focused only on human attributes. If the social biases in
NLP models can be indirectly harmful to humans involved, then the models can
also indirectly harm nonhuman animals. However, until recently no research on
social biases in NLP regarding nonhumans existed. In this paper, we analyze
biases to nonhuman animals, i.e. speciesist bias, inherent in English Masked
Language Models. We analyze this bias using template-based and corpus-extracted
sentences which contain speciesist (or non-speciesist) language, to show that
these models tend to associate harmful words with nonhuman animals. Our code
for reproducing the experiments will be made available on GitHub.
- Abstract(参考訳): 既存の様々な研究は、NLPモデルによってどのような社会的バイアスが受け継がれているかを分析してきた。
これらのバイアスは直接的または間接的に人を傷つける可能性があるため、以前の研究は人的属性のみに焦点を当ててきた。
NLPモデルの社会的バイアスが人間に間接的に有害である場合、モデルが間接的に非ヒト動物に害を与えることもある。
しかし、最近までNLPにおける非ヒトに関する社会的偏見の研究は存在しなかった。
本稿では,非ヒト動物,すなわち英語のマスキング言語モデルに内在する種主義者バイアスに対するバイアスを分析する。
このバイアスを、種族主義(または非種族主義)言語を含むテンプレートベースおよびコーパス抽出文を用いて分析し、有害な単語と非ヒト動物を関連付ける傾向を示す。
実験を再現するためのコードはgithubで入手できる予定です。
関連論文リスト
- Speciesism in Natural Language Processing Research [3.1077024712075794]
本研究の目的は、NLP研究において、種族主義、すなわち非ヒト動物に対する差別が存在するかどうかを検討することである。
本研究の結果は,それぞれ研究者,データ,モデルに種分化が存在することを示唆している。
具体的には、(a)NLP研究者のうち、(a)AIで社会バイアスを研究する者でさえ、(b)NLPデータの中で、(c)OpenAI GPT、(c)NLPモデル、最近のNLPモデルを評価するために使用されるデータセットに注釈付けされたデータに種主義バイアスが固有のものであることを示している。
論文 参考訳(メタデータ) (2024-10-18T06:09:41Z) - Trying to be human: Linguistic traces of stochastic empathy in language models [0.2638512174804417]
大規模言語モデル(LLM)は、コンピュータ生成コンテンツの質向上を支える重要な要因である。
私たちの研究は、2つの重要な要因が人間とAIの人種にどのように貢献するかをテストする。
論文 参考訳(メタデータ) (2024-10-02T15:46:40Z) - Spoken Stereoset: On Evaluating Social Bias Toward Speaker in Speech Large Language Models [50.40276881893513]
本研究では,音声大言語モデル(SLLM)における社会的バイアスの評価を目的としたデータセットであるSpken Stereosetを紹介する。
多様な人口集団の発話に対して異なるモデルがどのように反応するかを調べることで、これらのバイアスを特定することを目指している。
これらの結果から,ほとんどのモデルではバイアスが最小であるが,ステレオタイプや反ステレオタイプ傾向がわずかにみられた。
論文 参考訳(メタデータ) (2024-08-14T16:55:06Z) - The Devil is in the Neurons: Interpreting and Mitigating Social Biases in Pre-trained Language Models [78.69526166193236]
プレトレーニング言語モデル(PLM)は、社会的バイアスのような有害な情報を含むことが認識されている。
我々は,社会バイアスなどの望ましくない行動に起因する言語モデルにおいて,正確に単位(すなわちニューロン)を特定するために,sc Social Bias Neuronsを提案する。
StereoSetの以前の測定値からわかるように、我々のモデルは、低コストで言語モデリング能力を維持しながら、より高い公平性を達成する。
論文 参考訳(メタデータ) (2024-06-14T15:41:06Z) - White Men Lead, Black Women Help? Benchmarking Language Agency Social Biases in LLMs [58.27353205269664]
社会的偏見は言語機関に現れることがある。
本稿では,言語庁バイアス評価ベンチマークを紹介する。
我々は,最近の3つのLarge Language Model(LLM)生成コンテンツにおいて,言語エージェンシーの社会的バイアスを明らかにした。
論文 参考訳(メタデータ) (2024-04-16T12:27:54Z) - Generative Language Models Exhibit Social Identity Biases [17.307292780517653]
56大言語モデルにおいて,内集団の連帯性と外集団の敵意,基本的社会的アイデンティティバイアスが存在するか否かを検討する。
ほぼすべての基礎言語モデルといくつかの命令微調整モデルは、文の完全化を促すと、明らかな非群陽性および非群陰性な関連を示す。
現代の言語モデルは,人間と同等の社会的アイデンティティバイアスを示すことが示唆された。
論文 参考訳(メタデータ) (2023-10-24T13:17:40Z) - The Neuro-Symbolic Inverse Planning Engine (NIPE): Modeling
Probabilistic Social Inferences from Linguistic Inputs [50.32802502923367]
確率的目標推論領域における言語駆動の過程と社会的推論への影響について検討する。
本稿では,エージェントシナリオの言語入力から目標推定を行うニューロシンボリックモデルを提案する。
我々のモデルは人間の反応パターンと密に一致し、LLM単独の使用よりも人間の判断をより良く予測する。
論文 参考訳(メタデータ) (2023-06-25T19:38:01Z) - On the Origins of Bias in NLP through the Lens of the Jim Code [1.256413718364189]
我々は、現在の自然言語処理(NLP)モデルにおけるバイアスを、過去500年間の人種差別、性差別、ホモフォビアの起源にまで遡る。
NLPパイプラインのバイアスの原因が社会問題にどのように根ざしているかを示す。
論文 参考訳(メタデータ) (2023-05-16T08:37:13Z) - Speaking Multiple Languages Affects the Moral Bias of Language Models [70.94372902010232]
事前訓練された多言語言語モデル(PMLM)は、複数の言語からのデータや言語間転送を扱う際に一般的に用いられる。
モデルは英語から道徳的規範を捉え、他の言語に強制するか?
我々の実験は、事実、PMLMが道徳的バイアスを符号化していることを示しているが、これらは必ずしも人間の意見の文化的相違や共通点に対応しているわけではない。
論文 参考訳(メタデータ) (2022-11-14T20:08:54Z) - Argument from Old Man's View: Assessing Social Bias in Argumentation [20.65183968971417]
言語における社会的バイアスは多くのNLPアプリケーションに倫理的影響をもたらす。
最近の研究では、各データに基づいてトレーニングされた機械学習モデルが採用されるだけでなく、バイアスを増幅する可能性があることが示されている。
大規模な英語討論ポータルにおける社会的偏見の存在について検討する。
論文 参考訳(メタデータ) (2020-11-24T10:39:44Z) - A Framework for the Computational Linguistic Analysis of Dehumanization [52.735780962665814]
我々は1986年から2015年にかけてニューヨーク・タイムズでLGBTQの人々に関する議論を分析した。
LGBTQの人々の人為的な記述は、時間とともにますます増えています。
大規模に非人間化言語を分析する能力は、メディアバイアスを自動的に検出し、理解するだけでなく、オンラインで乱用する言語にも影響を及ぼす。
論文 参考訳(メタデータ) (2020-03-06T03:02:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。