論文の概要: What do Large Language Models Say About Animals? Investigating Risks of Animal Harm in Generated Text
- arxiv url: http://arxiv.org/abs/2503.04804v1
- Date: Mon, 03 Mar 2025 15:32:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 15:57:04.042881
- Title: What do Large Language Models Say About Animals? Investigating Risks of Animal Harm in Generated Text
- Title(参考訳): 大型言語モデルが動物について何を言っているか : 生成テキスト中の動物害のリスクを調査する
- Authors: Arturs Kanepajs, Aditi Basu, Sankalpa Ghose, Constance Li, Akshat Mehta, Ronak Mehta, Samuel David Tucker-Davis, Eric Zhou, Bob Fischer,
- Abstract要約: 大型言語モデル(LLM)における動物害リスクの新しい評価である動物害評価(AHA)を提案する。
私たちのデータセットはRedditのポストタイトルから1,850のキュレートされた質問と、50の動物カテゴリーと50の倫理的シナリオに基づいて2500の合成質問で構成されています。
AHAはフロンティアLSMに適用すると有意義な評価結果が得られる。
- 参考スコア(独自算出の注目度): 3.2905913457832057
- License:
- Abstract: As machine learning systems become increasingly embedded in human society, their impact on the natural world continues to escalate. Technical evaluations have addressed a variety of potential harms from large language models (LLMs) towards humans and the environment, but there is little empirical work regarding harms towards nonhuman animals. Following the growing recognition of animal protection in regulatory and ethical AI frameworks, we present the Animal Harm Assessment (AHA), a novel evaluation of risks of animal harm in LLM-generated text. Our dataset comprises 1,850 curated questions from Reddit post titles and 2,500 synthetic questions based on 50 animal categories (e.g., cats, reptiles) and 50 ethical scenarios, with further 70-30 publi-private split. Scenarios include open-ended questions about how to treat animals, practical scenarios with potential animal harm, and willingness-to-pay measures for the prevention of animal harm. Using the LLM-as-a-judge framework, answers are evaluated for their potential to increase or decrease harm, and evaluations are debiased for the tendency to judge their own outputs more favorably. We show that AHA produces meaningful evaluation results when applied to frontier LLMs, revealing significant differences between models, animal categories, scenarios, and subreddits. We conclude with future directions for technical research and the challenges of building evaluations on complex social and moral topics.
- Abstract(参考訳): 機械学習システムが人間の社会に浸透するにつれて、その自然界への影響は拡大し続けている。
技術的評価は、人間や環境に対する大きな言語モデル(LLM)による潜在的な害に対処してきたが、人間以外の動物に対する害に関する実証的な研究はほとんどない。
規制および倫理的AIフレームワークにおける動物保護の認識の高まりに続き、LSM生成テキストにおける動物害のリスクの新しい評価である動物害評価(AHA)を提示する。
われわれのデータセットはRedditのポストタイトルから1,850のキュレートされた質問と、50の動物カテゴリー(例:猫、幼虫)と50の倫理的シナリオに基づいて2500の合成質問で構成されており、さらに70~30のパブリ・プライベートが分割されている。
シナリオには、動物に対する治療方法、潜在的な動物害を伴う実践的なシナリオ、動物害の予防のための有償対策に関するオープンエンドな質問が含まれる。
LLM-as-a-judge フレームワークを用いて、損害を増大または減少させる可能性について回答を評価し、自分たちのアウトプットをより有利に判断する傾向について評価を怠っている。
AHAはフロンティアLSMに適用すると有意義な評価結果が得られ,モデル,動物カテゴリー,シナリオ,サブレディットの有意な差異が明らかとなった。
我々は,技術的な研究の今後の方向性と,複雑な社会的・道徳的なトピックに対する評価を構築する上での課題を結論づける。
関連論文リスト
- Rel-A.I.: An Interaction-Centered Approach To Measuring Human-LM Reliance [73.19687314438133]
インタラクションの文脈的特徴が依存に与える影響について検討する。
文脈特性が人間の信頼行動に大きく影響していることが判明した。
これらの結果から,キャリブレーションと言語品質だけでは人間とLMの相互作用のリスクを評価するには不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-07-10T18:00:05Z) - Animal Behavior Analysis Methods Using Deep Learning: A Survey [3.9086052572489653]
最先端のディープラーニングモデルは、様々な動物のデータの分類において顕著な精度を示している。
この論文は、動物行動研究の分野を前進させる可能性を秘めている深層学習における重要な研究方向に関する総合的な議論をまとめている。
論文 参考訳(メタデータ) (2024-05-22T21:17:54Z) - ALERT: A Comprehensive Benchmark for Assessing Large Language Models' Safety through Red Teaming [64.86326523181553]
ALERTは、新しいきめ細かいリスク分類に基づいて安全性を評価するための大規模なベンチマークである。
脆弱性を特定し、改善を通知し、言語モデルの全体的な安全性を高めることを目的としている。
論文 参考訳(メタデータ) (2024-04-06T15:01:47Z) - The Ethics of ChatGPT in Medicine and Healthcare: A Systematic Review on Large Language Models (LLMs) [0.0]
ChatGPT, Large Language Models (LLMs) は医療分野で大きな注目を集めている。
その潜在的な利点にもかかわらず、研究者は様々な倫理的影響を過小評価してきた。
本研究は, LLMの医療・医療への展開の現段階を取り巻く倫理的景観を地図化することを目的としている。
論文 参考訳(メタデータ) (2024-03-21T15:20:07Z) - The Case for Animal-Friendly AI [0.0]
大型言語モデル(LLM)における動物行動評価のための概念実証システムを開発した。
予備的な結果は, 動物に与える考察に関して, 実験モデルの結果をベンチマークすることができることを示唆している。
この研究は、より有用で責任あるAIシステムへの一歩であり、すべての知覚的存在の重要な関心と視点をよりよく認識し、尊重する。
論文 参考訳(メタデータ) (2024-03-02T12:41:11Z) - Eagle: Ethical Dataset Given from Real Interactions [74.7319697510621]
社会的バイアス、毒性、不道徳な問題を示すChatGPTとユーザ間の実際のインタラクションから抽出されたデータセットを作成します。
我々の実験では、イーグルは、そのような倫理的課題の評価と緩和のために提案された既存のデータセットでカバーされていない相補的な側面を捉えている。
論文 参考訳(メタデータ) (2024-02-22T03:46:02Z) - Mapping the Ethics of Generative AI: A Comprehensive Scoping Review [0.0]
我々は、特に大きな言語モデルやテキスト・ツー・イメージモデルを含む、生成的人工知能の倫理に関するスコーピングレビューを行う。
本分析では,19のトピック領域において,378の規範的問題を分類し,文献の有病率に応じて分類する。
この研究は、公正性、安全、有害なコンテンツ、幻覚、プライバシー、相互作用リスク、セキュリティ、アライメント、社会的影響などに関する倫理的な議論を、学者、実践者、あるいは政策立案者に包括的な概要を提供する。
論文 参考訳(メタデータ) (2024-02-13T09:38:17Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z) - Emotionally Numb or Empathetic? Evaluating How LLMs Feel Using EmotionBench [83.41621219298489]
心理学からの感情評価理論を用いて,Large Language Models (LLMs) の人為的能力を評価する。
我々は、研究の中心となる8つの感情を引き出すのに有効な400以上の状況を含むデータセットを収集した。
我々は世界中の1200人以上の被験者を対象に人間による評価を行った。
論文 参考訳(メタデータ) (2023-08-07T15:18:30Z) - Red teaming ChatGPT via Jailbreaking: Bias, Robustness, Reliability and
Toxicity [19.94836502156002]
大規模言語モデル(LLM)は社会的偏見と毒性を示し、無責任から生じる倫理的および社会的危険を呈する。
複数のサンプルデータセット上でChatGPTを実証的にベンチマークする。
既存のベンチマークでは、かなりの数の倫理的リスクに対処できないことが分かっています。
論文 参考訳(メタデータ) (2023-01-30T13:20:48Z) - AP-10K: A Benchmark for Animal Pose Estimation in the Wild [83.17759850662826]
一般的な動物のポーズ推定のための,最初の大規模ベンチマークであるAP-10Kを提案する。
AP-10Kは動物23種と60種から収集・濾過された10,015枚からなる。
その結果、様々な動物種からの学習の精度と一般化能力の両面での優位性に関する実験的な証拠が得られた。
論文 参考訳(メタデータ) (2021-08-28T10:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。