論文の概要: Can a Teenager Fool an AI? Evaluating Low-Cost Cosmetic Attacks on Age Estimation Systems
- arxiv url: http://arxiv.org/abs/2602.19539v1
- Date: Mon, 23 Feb 2026 06:13:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.696989
- Title: Can a Teenager Fool an AI? Evaluating Low-Cost Cosmetic Attacks on Age Estimation Systems
- Title(参考訳): ティーンエージャーはAIになれるか? 年齢推定システムにおける低コスト宇宙攻撃の評価
- Authors: Xingyu Shen, Tommy Duong, Xiaodong An, Zengqi Zhao, Zebang Hu, Haoyu Hu, Ziyou Wang, Finn Guo, Simiao Ren,
- Abstract要約: 年齢推定システムは、年齢制限のあるオンラインコンテンツのためのゲートキーパーとしてますます展開されている。
ヒゲを含むシンプルで家庭で利用できる化粧品の変化は、AI年齢推定者が未成年者を成人に分類する原因となるかどうかを考察する。
VLM画像エディターを用いて10歳から21歳までの人物の329枚の顔画像に対する身体的攻撃をシミュレートした。
- 参考スコア(独自算出の注目度): 5.0710101224393735
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Age estimation systems are increasingly deployed as gatekeepers for age-restricted online content, yet their robustness to cosmetic modifications has not been systematically evaluated. We investigate whether simple, household-accessible cosmetic changes, including beards, grey hair, makeup, and simulated wrinkles, can cause AI age estimators to classify minors as adults. To study this threat at scale without ethical concerns, we simulate these physical attacks on 329 facial images of individuals aged 10 to 21 using a VLM image editor (Gemini 2.5 Flash Image). We then evaluate eight models from our prior benchmark: five specialized architectures (MiVOLO, Custom-Best, Herosan, MiViaLab, DEX) and three vision-language models (Gemini 3 Flash, Gemini 2.5 Flash, GPT-5-Nano). We introduce the Attack Conversion Rate (ACR), defined as the fraction of images predicted as minor at baseline that flip to adult after attack, a population-agnostic metric that does not depend on the ratio of minors to adults in the test set. Our results reveal that a synthetic beard alone achieves 28 to 69 percent ACR across all eight models; combining all four attacks shifts predicted age by +7.7 years on average across all 329 subjects and reaches up to 83 percent ACR; and vision-language models exhibit lower ACR (59 to 71 percent) than specialized models (63 to 83 percent) under the full attack, although the ACR ranges overlap and the difference is not statistically tested. These findings highlight a critical vulnerability in deployed age-verification pipelines and call for adversarial robustness evaluation as a mandatory criterion for model selection.
- Abstract(参考訳): 年齢推定システムは、年齢制限のあるオンラインコンテンツのためのゲートキーパーとしてますます展開されているが、化粧品に対する堅牢性は体系的に評価されていない。
ひげ、白髪、化粧、シミュレートされたしわなど、シンプルで家庭で利用できる化粧品の変化が、未成年者を成人に分類するAI年齢を推定する要因となるかどうかを検討する。
VLM画像エディタ(Gemini 2.5 Flash Image)を用いて10歳から21歳までの人物の顔画像329枚に対する物理的攻撃をシミュレーションした。
次に、我々の以前のベンチマークから、特殊アーキテクチャ(MiVOLO、Custom-Best、Herosan、MiViaLab、DEC)とビジョン言語モデル(Gemini 3 Flash、Gemini 2.5 Flash、GPT-5-Nano)の5つのモデルを評価する。
本稿では,攻撃後に成人に反転するベースラインにおいて,未成年者と成人の比率に依存しない集団別指標として,未成年者に対する攻撃変換率 (ACR) について検討した。
以上の結果から, 人工ひげ単独では8モデル中28~69パーセントのACRが達成され, 平均年齢+7.7歳, 最大83パーセントのACRが達成され, 視覚言語モデルでは, 全攻撃時の特殊モデル(63~83パーセント)よりもACRが低いことが判明した。
これらの知見は, 展開した年齢検証パイプラインの重大な脆弱性を浮き彫りにして, モデル選択の必須基準として, 敵の頑健性評価を求めるものである。
関連論文リスト
- When World Models Dream Wrong: Physical-Conditioned Adversarial Attacks against World Models [54.08784776767683]
本稿では,物理条件を乱す最初のホワイトボックス世界モデルアタックであるPhysCond-WMA(PhysCond-WMA)を提案する。
PhysCond-WMAは知覚の忠実さを維持しながら意味、論理、決定レベルの歪みを引き起こす。
論文 参考訳(メタデータ) (2026-02-21T07:22:37Z) - Out of the box age estimation through facial imagery: A Comprehensive Benchmark of Vision-Language Models vs. out-of-the-box Traditional Architectures [43.812923368984904]
本稿では,現代視覚言語モデルと特殊年齢推定アーキテクチャを比較した最初の大規模クロスパラダイム・ベンチマークを提案する。
ゼロショットVLMは、ほとんどの特殊なモデルよりも大幅に優れており、平均絶対誤差(MAE)は5.65年である。
最もパフォーマンスの良いVLM(Gemini 3 Flash Preview, MAE 4.32)は、最強の非LLMモデル(MiVOLO, MAE 5.10)を15%上回っている。
論文 参考訳(メタデータ) (2026-02-08T04:44:31Z) - Overcoming Occlusions in the Wild: A Multi-Task Age Head Approach to Age Estimation [8.458496687170665]
本稿では,GAN(Generative Adversarial Network)とトランスフォーマーアーキテクチャを組み合わせて,隠蔽顔から頑健な年齢推定を実現する手法を提案する。
FG-NET, UTKFace, MORPHデータセットによる実験結果から, 提案手法が既存の顔年齢推定技術を超えていることが判明した。
論文 参考訳(メタデータ) (2025-06-16T13:00:05Z) - Underage Detection through a Multi-Task and MultiAge Approach for Screening Minors in Unconstrained Imagery [6.903111965769448]
凍結したFaRLビジョンバックボーンをベースとしたマルチタスクアーキテクチャを提案する。
視力の低下と年齢差を伴って, 全体の清潔化を訓練した。
F2スコアが0.801から0.857から1%の偽エラー率で18以下で検出された。
アンダー-12タスクとアンダー-15タスクでは、F2の各ブースターは0.666から0.955、それぞれ0.689から0.916である。
論文 参考訳(メタデータ) (2025-06-12T13:36:27Z) - Exploring Visual Vulnerabilities via Multi-Loss Adversarial Search for Jailbreaking Vision-Language Models [92.79804303337522]
VLM(Vision-Language Models)は、安全アライメントの問題に対して脆弱である。
本稿では、シナリオ認識画像生成を利用したセマンティックアライメントのための新しいジェイルブレイクフレームワークであるMLAIを紹介する。
大規模な実験はMLAIの重大な影響を示し、MiniGPT-4で77.75%、LLaVA-2で82.80%の攻撃成功率を達成した。
論文 参考訳(メタデータ) (2024-11-27T02:40:29Z) - CausalDiff: Causality-Inspired Disentanglement via Diffusion Model for Adversarial Defense [61.78357530675446]
人間は、本質的な要因のみに基づいて判断するので、微妙な操作によって騙されるのは難しい。
この観察に触発されて、本質的なラベル因果因子を用いたラベル生成をモデル化し、ラベル非因果因子を組み込んでデータ生成を支援する。
逆の例では、摂動を非因果因子として識別し、ラベル因果因子のみに基づいて予測することを目的としている。
論文 参考訳(メタデータ) (2024-10-30T15:06:44Z) - Robotic and Generative Adversarial Attacks in Offline Writer-independent
Signature Verification [1.370633147306388]
本研究では,ロボットと生成的アプローチを用いて,署名検証システムに対する偽受容攻撃を成功させる方法について検討する。
モデルチューニングにより,ロボットによる攻撃のリスクを8%と12%に低減し,25枚の画像が提示された場合,条件付き生成的敵攻撃を4%に削減できることがわかった。
論文 参考訳(メタデータ) (2022-04-14T22:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。