論文の概要: Adversarial Robustness of Vision in Open Foundation Models
- arxiv url: http://arxiv.org/abs/2512.17902v1
- Date: Fri, 19 Dec 2025 18:59:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.540657
- Title: Adversarial Robustness of Vision in Open Foundation Models
- Title(参考訳): オープンファンデーションモデルにおける視覚の対向ロバスト性
- Authors: Jonathon Fox, William J Buchanan, Pavlos Papadopoulos,
- Abstract要約: 敵は、見えない要素を追加することによって画像を修正することを目指しており、それによってAIがエンティティを認識することを混乱させる。
本稿では,LLaVA-1.5-13BとMetaのLlama 3.2 Vision-8B-2の対向性について検討する。
- 参考スコア(独自算出の注目度): 1.299941371793082
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the increase in deep learning, it becomes increasingly difficult to understand the model in which AI systems can identify objects. Thus, an adversary could aim to modify an image by adding unseen elements, which will confuse the AI in its recognition of an entity. This paper thus investigates the adversarial robustness of LLaVA-1.5-13B and Meta's Llama 3.2 Vision-8B-2. These are tested for untargeted PGD (Projected Gradient Descent) against the visual input modality, and empirically evaluated on the Visual Question Answering (VQA) v2 dataset subset. The results of these adversarial attacks are then quantified using the standard VQA accuracy metric. This evaluation is then compared with the accuracy degradation (accuracy drop) of LLaVA and Llama 3.2 Vision. A key finding is that Llama 3.2 Vision, despite a lower baseline accuracy in this setup, exhibited a smaller drop in performance under attack compared to LLaVA, particularly at higher perturbation levels. Overall, the findings confirm that the vision modality represents a viable attack vector for degrading the performance of contemporary open-weight VLMs, including Meta's Llama 3.2 Vision. Furthermore, they highlight that adversarial robustness does not necessarily correlate directly with standard benchmark performance and may be influenced by underlying architectural and training factors.
- Abstract(参考訳): ディープラーニングの増加に伴い、AIシステムがオブジェクトを識別できるモデルを理解することはますます困難になっている。
したがって、敵は目に見えない要素を追加することで画像を修正することを目指しており、それによってAIはエンティティの認識を混乱させる。
本稿では,LLaVA-1.5-13BとMetaのLlama 3.2 Vision-8B-2の対向性について検討する。
これらは、視覚入力のモダリティに対して未ターゲットのPGD(Projected Gradient Descent)に対してテストされ、Visual Question Answering (VQA) v2 データセットサブセットで実証的に評価される。
これらの敵攻撃の結果は、標準VQA精度測定値を用いて定量化される。
この評価は、LLaVAとLlama 3.2 Visionの精度劣化(精度低下)と比較される。
重要な発見は、Llama 3.2 Visionは、この設定ではベースライン精度が低いにもかかわらず、特に高い摂動レベルにおいて、攻撃中のLLaVAと比較して性能が低下したことである。
全体としては、視運動はメタのLlama 3.2 Visionを含む現代のオープンウェイトVLMの性能を低下させるための攻撃ベクトルとなることが確認された。
さらに、敵対的ロバスト性は必ずしも標準ベンチマークのパフォーマンスと直接相関せず、基礎となるアーキテクチャやトレーニング要因の影響を受けている可能性があることも強調している。
関連論文リスト
- VOGUE: Guiding Exploration with Visual Uncertainty Improves Multimodal Reasoning [62.09195763860549]
検証可能な報酬(RLVR)による強化学習は、大きな言語モデル(LLM)の推論を改善するが、探索に苦労する。
出力(テキスト)から入力(視覚)空間へ探索をシフトする新しい手法である$textbfVOGUE(Visual Uncertainty Guided Exploration)を紹介した。
本研究は,視覚入力の本質的不確実性における基盤探索が,マルチモーダル推論を改善するための効果的な戦略であることを示す。
論文 参考訳(メタデータ) (2025-10-01T20:32:08Z) - Universal Camouflage Attack on Vision-Language Models for Autonomous Driving [67.34987318443761]
自動運転のためのビジュアル言語モデリングが、有望な研究方向として浮上している。
VLM-ADは、敵の攻撃による深刻なセキュリティ脅威に弱いままである。
VLM-ADのための最初のユニバーサルカモフラージュ攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-24T14:52:01Z) - Visual hallucination detection in large vision-language models via evidential conflict [24.465497252040294]
Dempster-Shafer理論(DST)に基づく不確実性推定によるLVLMの視覚幻覚検出法
そこで本研究では,LVLMの視覚幻覚検出手法として,DST(Dempster-Shafer theory)を用いた第1次視覚幻覚検出法を提案する。
論文 参考訳(メタデータ) (2025-06-24T11:03:10Z) - REVEAL: Multi-turn Evaluation of Image-Input Harms for Vision LLM [0.098314893665023]
視覚大言語モデル(VLLM)における画像入力障害を評価するためのスケーラブルで自動化されたパイプラインであるREVEAL Frameworkを紹介する。
VLLMs, GPT-4o, Llama-3.2, Qwen2-VL, Phi3.5V, Pixtralの5種を, 性的被害, 暴力, 誤報の3つの重要な危険カテゴリーで評価した。
GPT-4oは、我々の安全ユーザビリティ指標(SUI)で測定された最もバランスの取れた性能を示し、Pixtralに近づいた。
論文 参考訳(メタデータ) (2025-05-07T10:09:55Z) - Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - Benchmarking and Improving Bird's Eye View Perception Robustness in Autonomous Driving [55.93813178692077]
本稿では,BEVアルゴリズムのレジリエンスを評価するためのベンチマークスイートであるRoboBEVを紹介する。
検出,マップセグメンテーション,深さ推定,占有予測といったタスクにまたがる33の最先端のBEVベースの知覚モデルを評価する。
また, 事前学習や深度自由なBEVトランスフォーメーションなどの戦略が, アウト・オブ・ディストリビューションデータに対するロバスト性を高める上で有効であることを示す。
論文 参考訳(メタデータ) (2024-05-27T17:59:39Z) - RadOcc: Learning Cross-Modality Occupancy Knowledge through Rendering
Assisted Distillation [50.35403070279804]
マルチビュー画像を用いた3次元シーンの占有状況とセマンティクスを推定することを目的とした,新たな課題である3D占有予測手法を提案する。
本稿では,RandOccを提案する。Rendering Assisted distillation paradigm for 3D Occupancy prediction。
論文 参考訳(メタデータ) (2023-12-19T03:39:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。