論文の概要: Speciesism in AI: Evaluating Discrimination Against Animals in Large Language Models
- arxiv url: http://arxiv.org/abs/2508.11534v1
- Date: Fri, 15 Aug 2025 15:22:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:24.064561
- Title: Speciesism in AI: Evaluating Discrimination Against Animals in Large Language Models
- Title(参考訳): AIにおける種主義:大規模言語モデルにおける動物に対する差別の評価
- Authors: Monika Jotautaitė, Lucius Caviola, David A. Brewster, Thilo Hagendorff,
- Abstract要約: 大型言語モデル (LLM) が種主義的バイアスを示すか否かを検討する。
LLMは確実に種族主義的発言を検知したが、ほとんど非難しなかった。
我々は、AI公正性とアライメントフレームワークを人間以外の道徳的患者を明示的に含めるように拡張することが不可欠であると主張している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As large language models (LLMs) become more widely deployed, it is crucial to examine their ethical tendencies. Building on research on fairness and discrimination in AI, we investigate whether LLMs exhibit speciesist bias -- discrimination based on species membership -- and how they value non-human animals. We systematically examine this issue across three paradigms: (1) SpeciesismBench, a 1,003-item benchmark assessing recognition and moral evaluation of speciesist statements; (2) established psychological measures comparing model responses with those of human participants; (3) text-generation tasks probing elaboration on, or resistance to, speciesist rationalizations. In our benchmark, LLMs reliably detected speciesist statements but rarely condemned them, often treating speciesist attitudes as morally acceptable. On psychological measures, results were mixed: LLMs expressed slightly lower explicit speciesism than people, yet in direct trade-offs they more often chose to save one human over multiple animals. A tentative interpretation is that LLMs may weight cognitive capacity rather than species per se: when capacities were equal, they showed no species preference, and when an animal was described as more capable, they tended to prioritize it over a less capable human. In open-ended text generation tasks, LLMs frequently normalized or rationalized harm toward farmed animals while refusing to do so for non-farmed animals. These findings suggest that while LLMs reflect a mixture of progressive and mainstream human views, they nonetheless reproduce entrenched cultural norms around animal exploitation. We argue that expanding AI fairness and alignment frameworks to explicitly include non-human moral patients is essential for reducing these biases and preventing the entrenchment of speciesist attitudes in AI systems and the societies they influence.
- Abstract(参考訳): 大規模言語モデル(LLM)がより広くデプロイされるようになるにつれて、それらの倫理的傾向を調べることが不可欠である。
AIにおける公正さと差別に関する研究に基づいて、LLMが種族による差別という種差別の偏見を示し、非人間的な動物をどう評価するかを調査する。
本研究では,本課題を,(1) 種主義的発言の認識と道徳的評価を評価する1,003項目のベンチマークである種主義ベンチ,(2) モデル応答と人的参加者の反応を比較した心理学的尺度,(3) 種主義的合理化の試行,あるいは抵抗性を示すテキスト生成タスクの3つのパラダイムにまたがって体系的に検討した。
我々のベンチマークでは、LSMは確実に種主義的発言を検知するが、ほとんど非難せず、しばしば種主義的態度を道徳的に許容できるものとして扱う。
心理学的尺度では、LSMは人間よりもわずかに明確な種主義を表現しているが、直接的なトレードオフでは複数の動物より1人の人間を救おうとすることが多い。
仮の解釈では、LLMは種ごとよりも認知能力が重くなり、能力が等しければ種を選好せず、動物がより有能であると説明されると、能力の低い人間よりも優先する傾向にある。
オープンエンドテキスト生成タスクでは、LLMは農耕動物に対する正常化や合理的化を頻繁に行い、非農耕動物に対してはそれを拒否する。
これらの結果は、LSMは進歩的、主流的な人間の視点を反映しているが、それでも動物による搾取に関する文化的規範を再現していることを示唆している。
我々は、AIフェアネスとアライメントの枠組みを人間以外の道徳的患者を明示的に含めるように拡張することは、これらのバイアスを減らし、AIシステムやそれらが与える社会における種主義的態度の定着を防ぐために不可欠である、と論じる。
関連論文リスト
- What do Large Language Models Say About Animals? Investigating Risks of Animal Harm in Generated Text [3.184628614309657]
AnimalHarmBenchは、大型言語モデル(LLM)における動物害のリスクのベンチマークである。
私たちのベンチマークデータセットは、Redditのポストタイトルから1,850のキュレートされた質問と、50の動物カテゴリーに基づいて2500の合成質問で構成されています。
LLM-as-a-judgeフレームワークを使用して、損害の増加または減少の可能性を評価した。
論文 参考訳(メタデータ) (2025-03-03T15:32:18Z) - Do LLMs exhibit human-like response biases? A case study in survey
design [66.1850490474361]
大規模言語モデル(LLM)が人間の反応バイアスをどの程度反映しているかについて検討する。
アンケート調査では, LLMが人間のような応答バイアスを示すかどうかを評価するためのデータセットとフレームワークを設計した。
9つのモデルに対する総合的な評価は、一般のオープンかつ商用のLCMは、一般的に人間のような振る舞いを反映しないことを示している。
論文 参考訳(メタデータ) (2023-11-07T15:40:43Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z) - Speciesist bias in AI -- How AI applications perpetuate discrimination
and unfair outcomes against animals [0.0]
この論文は、"種多様性バイアス"を初めて記述し、いくつかの異なるAIシステムでそれを調査したものである。
これは、AIシステムが動物に影響を及ぼす暴力の増加または減少に影響を及ぼす可能性があることを強調している。
論文 参考訳(メタデータ) (2022-02-22T12:23:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。