論文の概要: LLMs and Childhood Safety: Identifying Risks and Proposing a Protection Framework for Safe Child-LLM Interaction
- arxiv url: http://arxiv.org/abs/2502.11242v2
- Date: Fri, 21 Feb 2025 14:30:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-24 17:07:39.258520
- Title: LLMs and Childhood Safety: Identifying Risks and Proposing a Protection Framework for Safe Child-LLM Interaction
- Title(参考訳): LLMと子どもの安全:リスクの特定と安全LLMインタラクションのための保護枠組みの提案
- Authors: Junfeng Jiao, Saleh Afroogh, Kevin Chen, Abhejay Murali, David Atkinson, Amit Dhurandhar,
- Abstract要約: 本研究では,子育て型アプリケーションにおけるLarge Language Models (LLMs) の利用拡大について検討する。
これは、バイアス、有害なコンテンツ、文化的過敏といった安全性と倫理上の懸念を強調している。
本稿では,コンテンツ安全性,行動倫理,文化的感受性の指標を取り入れた安全・LLMインタラクションのための保護フレームワークを提案する。
- 参考スコア(独自算出の注目度): 8.018569128518187
- License:
- Abstract: This study examines the growing use of Large Language Models (LLMs) in child-centered applications, highlighting safety and ethical concerns such as bias, harmful content, and cultural insensitivity. Despite their potential to enhance learning, there is a lack of standardized frameworks to mitigate these risks. Through a systematic literature review, we identify key parental and empirical concerns, including toxicity and ethical breaches in AI outputs. Moreover, to address these issues, this paper proposes a protection framework for safe Child-LLM interaction, incorporating metrics for content safety, behavioral ethics, and cultural sensitivity. The framework provides practical tools for evaluating LLM safety, offering guidance for developers, policymakers, and educators to ensure responsible AI deployment for children.
- Abstract(参考訳): 本研究では、子ども中心のアプリケーションにおけるLarge Language Models(LLMs)の利用の増加について検討し、バイアス、有害コンテンツ、文化的過敏といった安全性と倫理的懸念を強調した。
学習を強化する可能性にもかかわらず、これらのリスクを軽減するための標準化されたフレームワークが欠如している。
体系的な文献レビューを通じて、AI出力の毒性や倫理的侵害を含む、親性および実証上の重要な懸念を識別する。
さらに,これらの課題に対処するために,コンテンツ安全性,行動倫理,文化的感受性の指標を取り入れた,安全な子・LLMインタラクションのための保護フレームワークを提案する。
このフレームワークは、LCMの安全性を評価するための実践的なツールを提供し、開発者、政策立案者、教育者に対して、子供に対する責任あるAIデプロイメントを保証するためのガイダンスを提供する。
関連論文リスト
- LLM Safety for Children [9.935219917903858]
この研究は、標準的な安全評価によって見落とされがちな子供の多様性を認めている。
本研究は,児童医療・心理学における文献による児童の個人性や興味の多様性を反映した児童ユーザモデルを開発する。
論文 参考訳(メタデータ) (2025-02-18T05:26:27Z) - Large Language Model Safety: A Holistic Survey [35.42419096859496]
大規模言語モデル(LLM)の急速な開発と展開により、人工知能の新たなフロンティアが導入された。
この調査は、LLMの安全性の現在の状況の概要を包括的に紹介し、価値のミスアライメント、敵の攻撃に対する堅牢性、誤用、自律的なAIリスクの4つの主要なカテゴリをカバーしている。
論文 参考訳(メタデータ) (2024-12-23T16:11:27Z) - LabSafety Bench: Benchmarking LLMs on Safety Issues in Scientific Labs [80.45174785447136]
実験室の事故は人命と財産に重大なリスクをもたらす。
安全訓練の進歩にもかかわらず、実験員はいまだに無意識に安全でない慣行に従事している可能性がある。
様々な分野におけるガイダンスのための大きな言語モデル(LLM)に対する懸念が高まっている。
論文 参考訳(メタデータ) (2024-10-18T05:21:05Z) - Multimodal Situational Safety [73.63981779844916]
マルチモーダル・シチュエーション・セーフティ(Multimodal situational Safety)と呼ばれる新しい安全課題の評価と分析を行う。
MLLMが言語やアクションを通じても安全に応答するためには、言語クエリが対応する視覚的コンテキスト内での安全性への影響を評価する必要があることが多い。
我々は,現在のMLLMの状況安全性能を評価するためのマルチモーダル状況安全ベンチマーク(MSSBench)を開発した。
論文 参考訳(メタデータ) (2024-10-08T16:16:07Z) - ALERT: A Comprehensive Benchmark for Assessing Large Language Models' Safety through Red Teaming [64.86326523181553]
ALERTは、新しいきめ細かいリスク分類に基づいて安全性を評価するための大規模なベンチマークである。
脆弱性を特定し、改善を通知し、言語モデルの全体的な安全性を高めることを目的としている。
論文 参考訳(メタデータ) (2024-04-06T15:01:47Z) - Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [65.77763092833348]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、これらのエージェントは安全性を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - A safety risk assessment framework for children's online safety based on
a novel safety weakness assessment approach [0.43512163406552007]
本稿では,成長するデジタルランドスケープの文脈において,子どものオンライン安全の問題に対処する。
本研究では,子どものオンライン安全に焦点をあてた安全リスク評価手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T08:50:15Z) - The Ethics of Interaction: Mitigating Security Threats in LLMs [1.407080246204282]
この論文は、社会や個人のプライバシに対するこのようなセキュリティ上の脅威に対する、倫理的な悪影響について論じている。
われわれは、プロンプト注入、ジェイルブレイク、個人識別情報(PII)露出、性的に明示的なコンテンツ、ヘイトベースのコンテンツという5つの主要な脅威を精査し、彼らの批判的な倫理的結果と、彼らが堅牢な戦略戦略のために作り出した緊急性を評価する。
論文 参考訳(メタデータ) (2024-01-22T17:11:37Z) - The Art of Defending: A Systematic Evaluation and Analysis of LLM
Defense Strategies on Safety and Over-Defensiveness [56.174255970895466]
大規模言語モデル(LLM)は、自然言語処理アプリケーションにおいて、ますます重要な役割を担っている。
本稿では,SODE(Safety and Over-Defensiveness Evaluation)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-12-30T17:37:06Z) - Security for Children in the Digital Society -- A Rights-based and
Research Ethics Approach [0.0]
このプロジェクトは、人工知能の開発のためのヨーロッパのフレームワークと、アルゴリズムによるオンラインコミュニケーションの過程で生じるセキュリティリスクから子どもを守ることに焦点を当てた、ドイツの状況にある。
このプロジェクトは、子どもの安全に関する質問に対する子どもの権利に関するアプローチをオンラインで開発すると同時に、児童に対するサイバーグルームや性的暴力などのオンライン被害について、子どもたちと研究を行うための研究倫理的アプローチも開発している。
論文 参考訳(メタデータ) (2023-08-24T08:13:02Z) - Safety Assessment of Chinese Large Language Models [51.83369778259149]
大規模言語モデル(LLM)は、侮辱や差別的なコンテンツを生成し、誤った社会的価値を反映し、悪意のある目的のために使用されることがある。
安全で責任があり倫理的なAIの展開を促進するため、LLMによる100万の強化プロンプトとレスポンスを含むセーフティプロンプトをリリースする。
論文 参考訳(メタデータ) (2023-04-20T16:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。