論文の概要: Actions Speak Louder Than Chats: Investigating AI Chatbot Age Gating
- arxiv url: http://arxiv.org/abs/2602.10251v1
- Date: Tue, 10 Feb 2026 19:55:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.261802
- Title: Actions Speak Louder Than Chats: Investigating AI Chatbot Age Gating
- Title(参考訳): AIチャットボットの年齢ゲーティングを調査
- Authors: Olivia Figueira, Pranathi Chamarthi, Tu Le, Athina Markopoulou,
- Abstract要約: 一般消費者のチャットボットが、会話のみに基づいて、ユーザの年齢を推定できるかどうかを検討する。
チャットボットは年齢を推定できるが、子どもが特定された場合、いかなる行動も取らないことがわかった。
- 参考スコア(独自算出の注目度): 2.363579139038687
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: AI chatbots are widely used by children and teens today, but they pose significant risks to youth's privacy and safety due to both increasingly personal conversations and potential exposure to unsafe content. While children under 13 are protected by the Children's Online Privacy Protection Act (COPPA), chatbot providers' own privacy policies may also provide protections, since they typically prohibit children from accessing their platforms. Age gating is often employed to restrict children online, but chatbot age gating in particular has not been studied. In this paper, we investigate whether popular consumer chatbots are (i) able to estimate users' ages based solely on their conversations, and (ii) whether they take action upon identifying children. To that end, we develop an auditing framework in which we programmatically interact with chatbots and conduct 1050 experiments using our comprehensive library of age-indicative prompts, including implicit and explicit age disclosures, to analyze the chatbots' responses and actions. We find that while chatbots are capable of estimating age, they do not take any action when children are identified, contradicting their own policies. Our methodology and findings provide insights for platform design, demonstrated by our proof-of-concept chatbot age gating implementation, and regulation to protect children online.
- Abstract(参考訳): AIチャットボットは現在、子供や十代の若者に広く使われているが、個人の会話の増加と、安全でないコンテンツへの露出の両方により、若者のプライバシーと安全性に重大なリスクをもたらす。
13歳未満の子供たちは、子どものオンラインプライバシー保護法(COPPA)によって保護されているが、チャットボット提供者のプライバシーポリシーは、通常、子供たちのプラットフォームへのアクセスを禁止しているため、保護を提供することもある。
年齢ゲーティングは、オンラインで子供を制限するためにしばしば使用されるが、特にチャットボット年齢ゲーティングは研究されていない。
本稿では,一般消費者向けチャットボットが普及しているかどうかを検討する。
(i)会話のみに基づいてユーザの年齢を推定でき、
(二 子どもを識別する行為をするか否か。)
そこで我々は,チャットボットとプログラム的に対話し,暗黙的かつ明示的な年齢情報開示を含む,年齢指示型プロンプトの包括的ライブラリを用いた1050の実験を行い,チャットボットの反応と行動を分析する監査フレームワークを開発した。
チャットボットは年齢を推定できるが、子どもが特定された場合、自分のポリシーに反する行動を取ることはない。
我々の方法論と知見は、概念実証チャットボットの年齢ゲーティング実装で実証されたプラットフォーム設計の洞察と、子どもをオンラインで保護するための規制を提供する。
関連論文リスト
- Ask ChatGPT: Caveats and Mitigations for Individual Users of AI Chatbots [10.977907906989342]
ChatGPTや他のLLM(Large Language Model)ベースのAIチャットボットは、個人の日常生活にますます統合される。
これらのシステムが個々のユーザーにどのような懸念とリスクをもたらすのか?
それらが引き起こす可能性のある潜在的な害は、どのように軽減されるのか?
論文 参考訳(メタデータ) (2025-08-14T01:40:13Z) - Understanding Teen Overreliance on AI Companion Chatbots Through Self-Reported Reddit Narratives [7.829454333137073]
我々は、キャラクタ.AIサブレディットで13~17歳として自己開示したユーザーによるRedditの投稿318件を分析した。
十代の若者たちは、サポートや創造的な遊びにチャットボットを使い始めることが多いが、これらのアクティビティは、対立、離脱、寛容、再発、ムードの規制によって特徴付けられる強い愛着へと深まる可能性がある。
ディスエンゲージメントは、十代の若者が害を認識したり、オフライン生活で再エンゲージメントを行ったり、制限的なプラットフォーム変化に遭遇したとき、一般的に発生する。
論文 参考訳(メタデータ) (2025-07-21T16:39:33Z) - SafeChat: A Framework for Building Trustworthy Collaborative Assistants and a Case Study of its Usefulness [4.896226014796392]
SafeChatは、安全で信頼性の高いチャットボットを構築するための一般的なアーキテクチャです。
SafeChatの主な特徴は、 (a) 応答が承認されたソース(保証)に対して基礎付けられてトレース可能なドメインに依存しない設計による安全性、 (b) ユーザビリティ、長いレスポンスの自動抽出によるソースへのトレーサビリティ、 (c) CSV駆動ワークフロー、自動テスト、各種デバイスとの統合を含む、高速でスケーラブルな開発である。
論文 参考訳(メタデータ) (2025-04-08T19:16:43Z) - Exploring and Mitigating Adversarial Manipulation of Voting-Based Leaderboards [93.16294577018482]
このタイプの最も人気のあるベンチマークであるArenaは、ランダムに選択された2つのモデル間のより良いレスポンスを選択するようユーザに求めることで、モデルをランク付けする。
攻撃者は、約1000票の費用で、リーダーボードを変更できる(お気に入りのモデルを宣伝したり、ライバルを降格させる)。
私たちの攻撃は2つのステップで構成されている。まず、攻撃者が95%以上の精度で特定の応答を生成するためにどのモデルを使用したかを決定する方法を示し、次に、攻撃者はこの情報を使ってターゲットモデルに対して一貫して投票することができる。
論文 参考訳(メタデータ) (2025-01-13T17:12:38Z) - Are LLM-based methods good enough for detecting unfair terms of service? [67.49487557224415]
大規模言語モデル(LLM)は、長いテキストベースの文書を解析するのに適している。
プライバシーポリシーの集合に対して個別に適用された12の質問からなるデータセットを構築します。
いくつかのオープンソースモデルは、いくつかの商用モデルと比較して高い精度を提供できる。
論文 参考訳(メタデータ) (2024-08-24T09:26:59Z) - User Privacy Harms and Risks in Conversational AI: A Proposed Framework [1.8416014644193066]
本研究は、テキストベースのインタラクションにおいて、9つのプライバシ障害と9つのプライバシリスクを特定する。
目標は、開発者、政策立案者、研究者に会話AIの責任と安全な実装のためのツールを提供することだ。
論文 参考訳(メタデータ) (2024-02-15T05:21:58Z) - You Don't Know My Favorite Color: Preventing Dialogue Representations
from Revealing Speakers' Private Personas [44.82330540456883]
簡単なニューラルネットワークを用いて話者のペルソナを高精度に推定可能であることを示す。
提案する防衛目標が,攻撃精度を37.6%から0.5%に大幅に低減できることを示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-04-26T09:36:18Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。