論文の概要: LLM Safety for Children
- arxiv url: http://arxiv.org/abs/2502.12552v1
- Date: Tue, 18 Feb 2025 05:26:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 20:12:08.81288
- Title: LLM Safety for Children
- Title(参考訳): 小児のLSM安全性
- Authors: Prasanjit Rath, Hari Shrawgi, Parag Agrawal, Sandipan Dandapat,
- Abstract要約: この研究は、標準的な安全評価によって見落とされがちな子供の多様性を認めている。
本研究は,児童医療・心理学における文献による児童の個人性や興味の多様性を反映した児童ユーザモデルを開発する。
- 参考スコア(独自算出の注目度): 9.935219917903858
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper analyzes the safety of Large Language Models (LLMs) in interactions with children below age of 18 years. Despite the transformative applications of LLMs in various aspects of children's lives such as education and therapy, there remains a significant gap in understanding and mitigating potential content harms specific to this demographic. The study acknowledges the diverse nature of children often overlooked by standard safety evaluations and proposes a comprehensive approach to evaluating LLM safety specifically for children. We list down potential risks that children may encounter when using LLM powered applications. Additionally we develop Child User Models that reflect the varied personalities and interests of children informed by literature in child care and psychology. These user models aim to bridge the existing gap in child safety literature across various fields. We utilize Child User Models to evaluate the safety of six state of the art LLMs. Our observations reveal significant safety gaps in LLMs particularly in categories harmful to children but not adults
- Abstract(参考訳): 本稿では,18歳未満の子どもとの対話におけるLarge Language Models(LLMs)の安全性について分析する。
教育やセラピーといった子どもの生活の様々な側面におけるLSMの転換的応用にもかかわらず、潜在的な内容の理解と緩和には大きなギャップが残っている。
この研究は、標準的な安全評価によって見落とされがちな子供の多様な性質を認め、特に子どもに対するLSMの安全性を評価するための包括的なアプローチを提案する。
LLMアプリケーションを使用する場合、子どもが遭遇する可能性のあるリスクをリストアップする。
また,児童ケアや心理学における文学的情報による子どもの個性や興味の多様性を反映した児童ユーザモデルも開発している。
これらのユーザモデルは、様々な分野における児童安全文学のギャップを埋めることを目的としている。
児童ユーザモデルを用いて、6つの最先端LCMの安全性を評価する。
我々の観察では、特に子供に有害であるが成人には及ばないカテゴリーにおけるLSMの安全性のギャップが顕著であることが示された。
関連論文リスト
- Applying LLM-Powered Virtual Humans to Child Interviews in Child-Centered Design [0.0]
本研究は,子どもの面接に適したLLMを用いた仮想人間の設計ガイドラインを確立する。
ChatGPTベースのプロンプトエンジニアリングを用いて、3つの異なるヒューマンAI(LLM-Auto, LLM-Interview, LLM-Analyze)を開発した。
その結果、LLM-Analyzeワークフローは、長い応答を引き出すことで、他のワークフローよりも優れていた。
論文 参考訳(メタデータ) (2025-04-28T17:35:46Z) - A Comprehensive Survey in LLM(-Agent) Full Stack Safety: Data, Training and Deployment [291.03029298928857]
本稿では, LLM のトレーニング, 展開, 商業化のプロセス全体を通して, 安全問題を体系的に検討する "フルスタック" の安全性の概念を紹介する。
我々の研究は800以上の論文を網羅的にレビューし、包括的カバレッジとセキュリティ問題の体系的な組織化を確保しています。
本研究は,データ生成の安全性,アライメント技術,モデル編集,LLMベースのエージェントシステムなど,有望な研究方向を特定する。
論文 参考訳(メタデータ) (2025-04-22T05:02:49Z) - MinorBench: A hand-built benchmark for content-based risks for children [0.0]
大型言語モデル(LLM)は、親主導の養子縁組、学校、ピアネットワークを通じて、子供の生活に急速に浸透している。
現在のAI倫理と安全研究は、未成年者特有のコンテンツ関連リスクに適切に対処していない。
我々は,未成年者に対するコンテンツベースのリスクの新しい分類法を提案し,子どもの安全でないクエリや不適切なクエリを拒否する能力に基づいてLSMを評価するために設計されたオープンソースのベンチマークであるMinorBenchを紹介した。
論文 参考訳(メタデータ) (2025-03-13T10:34:43Z) - LLMs and Childhood Safety: Identifying Risks and Proposing a Protection Framework for Safe Child-LLM Interaction [8.018569128518187]
本研究では,子育て型アプリケーションにおけるLarge Language Models (LLMs) の利用拡大について検討する。
これは、バイアス、有害なコンテンツ、文化的過敏といった安全性と倫理上の懸念を強調している。
本稿では,コンテンツ安全性,行動倫理,文化的感受性の指標を取り入れた安全・LLMインタラクションのための保護フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-16T19:39:48Z) - SafeBench: A Safety Evaluation Framework for Multimodal Large Language Models [75.67623347512368]
MLLMの安全性評価を行うための総合的なフレームワークであるツールンを提案する。
我々のフレームワークは、包括的な有害なクエリデータセットと自動評価プロトコルで構成されています。
本研究では,広く利用されている15のオープンソースMLLMと6つの商用MLLMの大規模実験を行った。
論文 参考訳(メタデータ) (2024-10-24T17:14:40Z) - ALERT: A Comprehensive Benchmark for Assessing Large Language Models' Safety through Red Teaming [64.86326523181553]
ALERTは、新しいきめ細かいリスク分類に基づいて安全性を評価するための大規模なベンチマークである。
脆弱性を特定し、改善を通知し、言語モデルの全体的な安全性を高めることを目的としている。
論文 参考訳(メタデータ) (2024-04-06T15:01:47Z) - The Art of Defending: A Systematic Evaluation and Analysis of LLM
Defense Strategies on Safety and Over-Defensiveness [56.174255970895466]
大規模言語モデル(LLM)は、自然言語処理アプリケーションにおいて、ますます重要な役割を担っている。
本稿では,SODE(Safety and Over-Defensiveness Evaluation)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-12-30T17:37:06Z) - A Survey on Evaluation of Large Language Models [87.60417393701331]
大規模言語モデル(LLM)は、学術と産業の両方で人気が高まっている。
本稿では,評価方法,評価方法,評価方法の3つの重要な側面に焦点をあてる。
論文 参考訳(メタデータ) (2023-07-06T16:28:35Z) - Safety Assessment of Chinese Large Language Models [51.83369778259149]
大規模言語モデル(LLM)は、侮辱や差別的なコンテンツを生成し、誤った社会的価値を反映し、悪意のある目的のために使用されることがある。
安全で責任があり倫理的なAIの展開を促進するため、LLMによる100万の強化プロンプトとレスポンスを含むセーフティプロンプトをリリースする。
論文 参考訳(メタデータ) (2023-04-20T16:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。