論文の概要: Understanding Gen Alpha Digital Language: Evaluation of LLM Safety Systems for Content Moderation
- arxiv url: http://arxiv.org/abs/2505.10588v1
- Date: Wed, 14 May 2025 16:46:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:13.261409
- Title: Understanding Gen Alpha Digital Language: Evaluation of LLM Safety Systems for Content Moderation
- Title(参考訳): Gen Alpha Digital Languageの理解:コンテンツモデレーションのためのLLM安全性システムの評価
- Authors: Manisha Mehta, Fausto Giunchiglia,
- Abstract要約: この研究は、AIシステムがジェネレーションアルファのデジタル言語をどのように解釈するかの独特な評価を提供する(Gen Alpha、2010年生まれ-2024年)
Gen Alphaは、没入型のデジタルエンゲージメントと、進化するコミュニケーションと既存の安全ツールとのミスマッチの増加により、新たな形のオンラインリスクに直面している。
この研究は、ゲームプラットフォーム、ソーシャルメディア、ビデオコンテンツからの100の最近の表現のデータセットを使用して、オンラインの安全性に直接影響する重要な理解障害を明らかにしている。
- 参考スコア(独自算出の注目度): 8.905184322069898
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This research offers a unique evaluation of how AI systems interpret the digital language of Generation Alpha (Gen Alpha, born 2010-2024). As the first cohort raised alongside AI, Gen Alpha faces new forms of online risk due to immersive digital engagement and a growing mismatch between their evolving communication and existing safety tools. Their distinct language, shaped by gaming, memes, and AI-driven trends, often conceals harmful interactions from both human moderators and automated systems. We assess four leading AI models (GPT-4, Claude, Gemini, and Llama 3) on their ability to detect masked harassment and manipulation within Gen Alpha discourse. Using a dataset of 100 recent expressions from gaming platforms, social media, and video content, the study reveals critical comprehension failures with direct implications for online safety. This work contributes: (1) a first-of-its-kind dataset capturing Gen Alpha expressions; (2) a framework to improve AI moderation systems for youth protection; (3) a multi-perspective evaluation including AI systems, human moderators, and parents, with direct input from Gen Alpha co-researchers; and (4) an analysis of how linguistic divergence increases youth vulnerability. Findings highlight the urgent need to redesign safety systems attuned to youth communication, especially given Gen Alpha reluctance to seek help when adults fail to understand their digital world. This study combines the insight of a Gen Alpha researcher with systematic academic analysis to address critical digital safety challenges.
- Abstract(参考訳): この研究は、AIシステムがジェネレーションアルファ(Gen Alpha、2010-2024生まれ)のデジタル言語をどのように解釈するかのユニークな評価を提供する。
AIとの最初のコホートとして、Gen Alphaは、没入型のデジタルエンゲージメントと、進化するコミュニケーションと既存の安全ツールとのミスマッチの増加により、新たな形のオンラインリスクに直面している。
ゲーム、ミーム、AI駆動のトレンドによって形成されたそれぞれの言語は、しばしば人間のモデレーターと自動化システムの両方からの有害な相互作用を隠蔽する。
我々は4つの主要なAIモデル(GPT-4、Claude、Gemini、Llama)を評価する。
3)Gen Alpha談話におけるマスクハラスメントと操作を検出する能力について。
この研究は、ゲームプラットフォーム、ソーシャルメディア、ビデオコンテンツからの100の最近の表現のデータセットを使用して、オンラインの安全性に直接影響する重要な理解障害を明らかにしている。
本研究は,(1)Gen Alpha表現を抽出した第一種データセット,(2)若者保護のためのAIモデレーションシステムを改善するための枠組み,(3)Gen Alphaの共同研究者から直接の入力によるAIシステム,ヒトモデレーター,親を含む多目的評価,(4)言語的発散が若者の脆弱性をどのように増大させるかの分析に寄与する。
特に成人がデジタル世界を理解しないときに助けを求めることへの寛容さを考えると、若者のコミュニケーションに配慮した安全システムを再設計する緊急の必要性が浮かび上がっている。
この研究は、Gen Alpha研究者の洞察と体系的な学術的分析を組み合わせることで、重要なデジタル安全課題に対処する。
関連論文リスト
- Generative AI Literacy: A Comprehensive Framework for Literacy and Responsible Use [7.46277104253077]
我々は、生成的AIリテラシーのための12項目のガイドラインセットを提案する。
これらのガイドラインは、学校、企業、教育者、組織が、メンバーが生成AIを効率的で倫理的でインフォメーションな方法で利用できるようにするフレームワークを開発するのを支援することを目的としている。
論文 参考訳(メタデータ) (2025-04-26T22:14:48Z) - Linguistic Comparison of AI- and Human-Written Responses to Online Mental Health Queries [17.133059430285627]
ジェネレーティブAIと大規模言語モデル(LLMs)は、スケーラブルで、時周のメンタルヘルス支援のための新しい可能性を導入した。
本研究ではReddit上の55のオンラインサポートコミュニティから24,114の投稿と138,758のオンラインコミュニティ(OC)の回答を得た。
その結果、AI応答はより冗長で、読みやすく、分析的に構造化されているが、言語的多様性や人間と人間の相互作用に固有の個人の物語は欠如していることが判明した。
論文 参考訳(メタデータ) (2025-04-12T16:20:02Z) - Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
本研究では、AI-Polished-Text Evaluationデータセットを用いて、12の最先端AIテキスト検出器を体系的に評価する。
我々の発見によると、検出器は、最小限に洗練されたテキストをAI生成としてフラグ付けし、AIの関与度を区別し、古いモデルや小さなモデルに対するバイアスを示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - Generative AI in Self-Directed Learning: A Scoping Review [0.0]
本稿では,ジェネレーティブ・人工知能(GenAI)と自己指向学習(SDL)の交差点における現在の知識体系について検討する。
ChatGPTやその他の大規模言語モデル(LLM)を含むGenAIツールは、オンデマンドでパーソナライズされた支援を通じてSDLをサポートすることを約束している。
GenAIの長期的影響を理解する上ではまだ大きなギャップがある。
論文 参考訳(メタデータ) (2024-11-12T09:46:40Z) - Generative AI in Education: A Study of Educators' Awareness, Sentiments, and Influencing Factors [2.217351976766501]
本研究は,AI言語モデルに対する教員の経験と態度について考察する。
学習スタイルと生成AIに対する態度の相関は見つからない。
CS教育者は、生成するAIツールの技術的理解にはるかに自信を持っているが、AI生成された仕事を検出する能力にこれ以上自信がない。
論文 参考訳(メタデータ) (2024-03-22T19:21:29Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - Building Human-like Communicative Intelligence: A Grounded Perspective [1.0152838128195465]
言語学習における驚くべき進歩の後、AIシステムは人間のコミュニケーション能力の重要な側面を反映しない天井に近づいたようだ。
本稿は、ナチビストと象徴的パラダイムに基づく認知にインスパイアされたAIの方向性には、現代AIの進歩を導くために必要なサブストラテジと具体性がないことを示唆する。
本稿では,「地下」言語知能構築のための具体的かつ実装可能なコンポーネントのリストを提案する。
論文 参考訳(メタデータ) (2022-01-02T01:43:24Z) - GenNI: Human-AI Collaboration for Data-Backed Text Generation [102.08127062293111]
Table2Textシステムは、機械学習を利用した構造化データに基づいてテキスト出力を生成する。
GenNI (Generation Negotiation Interface) は、対話型ビジュアルシステムである。
論文 参考訳(メタデータ) (2021-10-19T18:07:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。