論文の概要: Speciesism in AI: Evaluating Discrimination Against Animals in Large Language Models
- arxiv url: http://arxiv.org/abs/2508.11534v1
- Date: Fri, 15 Aug 2025 15:22:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:24.064561
- Title: Speciesism in AI: Evaluating Discrimination Against Animals in Large Language Models
- Title(参考訳): AIにおける種主義:大規模言語モデルにおける動物に対する差別の評価
- Authors: Monika Jotautaitė, Lucius Caviola, David A. Brewster, Thilo Hagendorff,
- Abstract要約: 大型言語モデル (LLM) が種主義的バイアスを示すか否かを検討する。
LLMは確実に種族主義的発言を検知したが、ほとんど非難しなかった。
我々は、AI公正性とアライメントフレームワークを人間以外の道徳的患者を明示的に含めるように拡張することが不可欠であると主張している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As large language models (LLMs) become more widely deployed, it is crucial to examine their ethical tendencies. Building on research on fairness and discrimination in AI, we investigate whether LLMs exhibit speciesist bias -- discrimination based on species membership -- and how they value non-human animals. We systematically examine this issue across three paradigms: (1) SpeciesismBench, a 1,003-item benchmark assessing recognition and moral evaluation of speciesist statements; (2) established psychological measures comparing model responses with those of human participants; (3) text-generation tasks probing elaboration on, or resistance to, speciesist rationalizations. In our benchmark, LLMs reliably detected speciesist statements but rarely condemned them, often treating speciesist attitudes as morally acceptable. On psychological measures, results were mixed: LLMs expressed slightly lower explicit speciesism than people, yet in direct trade-offs they more often chose to save one human over multiple animals. A tentative interpretation is that LLMs may weight cognitive capacity rather than species per se: when capacities were equal, they showed no species preference, and when an animal was described as more capable, they tended to prioritize it over a less capable human. In open-ended text generation tasks, LLMs frequently normalized or rationalized harm toward farmed animals while refusing to do so for non-farmed animals. These findings suggest that while LLMs reflect a mixture of progressive and mainstream human views, they nonetheless reproduce entrenched cultural norms around animal exploitation. We argue that expanding AI fairness and alignment frameworks to explicitly include non-human moral patients is essential for reducing these biases and preventing the entrenchment of speciesist attitudes in AI systems and the societies they influence.
- Abstract(参考訳): 大規模言語モデル(LLM)がより広くデプロイされるようになるにつれて、それらの倫理的傾向を調べることが不可欠である。
AIにおける公正さと差別に関する研究に基づいて、LLMが種族による差別という種差別の偏見を示し、非人間的な動物をどう評価するかを調査する。
本研究では,本課題を,(1) 種主義的発言の認識と道徳的評価を評価する1,003項目のベンチマークである種主義ベンチ,(2) モデル応答と人的参加者の反応を比較した心理学的尺度,(3) 種主義的合理化の試行,あるいは抵抗性を示すテキスト生成タスクの3つのパラダイムにまたがって体系的に検討した。
我々のベンチマークでは、LSMは確実に種主義的発言を検知するが、ほとんど非難せず、しばしば種主義的態度を道徳的に許容できるものとして扱う。
心理学的尺度では、LSMは人間よりもわずかに明確な種主義を表現しているが、直接的なトレードオフでは複数の動物より1人の人間を救おうとすることが多い。
仮の解釈では、LLMは種ごとよりも認知能力が重くなり、能力が等しければ種を選好せず、動物がより有能であると説明されると、能力の低い人間よりも優先する傾向にある。
オープンエンドテキスト生成タスクでは、LLMは農耕動物に対する正常化や合理的化を頻繁に行い、非農耕動物に対してはそれを拒否する。
これらの結果は、LSMは進歩的、主流的な人間の視点を反映しているが、それでも動物による搾取に関する文化的規範を再現していることを示唆している。
我々は、AIフェアネスとアライメントの枠組みを人間以外の道徳的患者を明示的に含めるように拡張することは、これらのバイアスを減らし、AIシステムやそれらが与える社会における種主義的態度の定着を防ぐために不可欠である、と論じる。
関連論文リスト
- Machine Bullshit: Characterizing the Emergent Disregard for Truth in Large Language Models [57.834711966432685]
哲学者ハリー・フランクフルト(Harry Frankfurt)によって概念化されたブルシット(Bullshit)は、その真理の価値を問わない言明を指す。
本稿では,大言語モデルの真偽に対する無関心を定量化する新しい指標であるブルシット指数を紹介する。
我々は、政治的文脈で一般的な機械いじめを観察し、軽快な言葉が支配的な戦略である。
論文 参考訳(メタデータ) (2025-07-10T07:11:57Z) - Measurement of LLM's Philosophies of Human Nature [113.47929131143766]
大規模言語モデル(LLM)を対象とする標準化された心理尺度を設計する。
現在のLSMは、人間に対する信頼の欠如を示す。
本稿では,LLMが継続的に価値体系を最適化できるメンタルループ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-03T06:22:19Z) - What do Large Language Models Say About Animals? Investigating Risks of Animal Harm in Generated Text [3.184628614309657]
AnimalHarmBenchは、大型言語モデル(LLM)における動物害のリスクのベンチマークである。
私たちのベンチマークデータセットは、Redditのポストタイトルから1,850のキュレートされた質問と、50の動物カテゴリーに基づいて2500の合成質問で構成されています。
LLM-as-a-judgeフレームワークを使用して、損害の増加または減少の可能性を評価した。
論文 参考訳(メタデータ) (2025-03-03T15:32:18Z) - Speciesism in Natural Language Processing Research [3.1077024712075794]
本研究の目的は、NLP研究において、種族主義、すなわち非ヒト動物に対する差別が存在するかどうかを検討することである。
本研究の結果は,それぞれ研究者,データ,モデルに種分化が存在することを示唆している。
具体的には、(a)NLP研究者のうち、(a)AIで社会バイアスを研究する者でさえ、(b)NLPデータの中で、(c)OpenAI GPT、(c)NLPモデル、最近のNLPモデルを評価するために使用されるデータセットに注釈付けされたデータに種主義バイアスが固有のものであることを示している。
論文 参考訳(メタデータ) (2024-10-18T06:09:41Z) - MOSSBench: Is Your Multimodal Language Model Oversensitive to Safe Queries? [70.77691645678804]
人間は認知の歪みに傾向があり、特定の刺激に対する過大な反応を引き起こす偏見のある思考パターンがある。
本稿では,高度マルチモーダル言語モデル (MLLM) が同様の傾向を示すことを示す。
既存のMLLMの過敏性を引き起こす3種類の刺激を同定する。
論文 参考訳(メタデータ) (2024-06-22T23:26:07Z) - The Case for Animal-Friendly AI [0.0]
大型言語モデル(LLM)における動物行動評価のための概念実証システムを開発した。
予備的な結果は, 動物に与える考察に関して, 実験モデルの結果をベンチマークすることができることを示唆している。
この研究は、より有用で責任あるAIシステムへの一歩であり、すべての知覚的存在の重要な関心と視点をよりよく認識し、尊重する。
論文 参考訳(メタデータ) (2024-03-02T12:41:11Z) - Do LLMs exhibit human-like response biases? A case study in survey
design [66.1850490474361]
大規模言語モデル(LLM)が人間の反応バイアスをどの程度反映しているかについて検討する。
アンケート調査では, LLMが人間のような応答バイアスを示すかどうかを評価するためのデータセットとフレームワークを設計した。
9つのモデルに対する総合的な評価は、一般のオープンかつ商用のLCMは、一般的に人間のような振る舞いを反映しないことを示している。
論文 参考訳(メタデータ) (2023-11-07T15:40:43Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z) - Despite "super-human" performance, current LLMs are unsuited for
decisions about ethics and safety [0.0]
我々は、もう1つの「スーパーヒューマン」な結果につながる、シンプルな新しいプロンプト戦略を提供します。
平均的なパフォーマンスを判断能力に頼っていることは、非常に誤解を招く可能性がある。
また、いくつかの例では、モデルサイズによる逆スケーリングの兆候を観察し、モデルに"推論を説明する"よう促すことが、しばしば非倫理的行動の顕著な正当化につながることを示す。
論文 参考訳(メタデータ) (2022-12-13T00:29:45Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Speciesist bias in AI -- How AI applications perpetuate discrimination
and unfair outcomes against animals [0.0]
この論文は、"種多様性バイアス"を初めて記述し、いくつかの異なるAIシステムでそれを調査したものである。
これは、AIシステムが動物に影響を及ぼす暴力の増加または減少に影響を及ぼす可能性があることを強調している。
論文 参考訳(メタデータ) (2022-02-22T12:23:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。