論文の概要: Exploiting Alpha Transparency In Language And Vision-Based AI Systems
- arxiv url: http://arxiv.org/abs/2402.09671v1
- Date: Thu, 15 Feb 2024 02:38:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 17:30:49.382197
- Title: Exploiting Alpha Transparency In Language And Vision-Based AI Systems
- Title(参考訳): 言語と視覚に基づくAIシステムにおけるAlpha Transparencyの爆発
- Authors: David Noever and Forrest McKee
- Abstract要約: 本研究は、PNG画像ファイルフォーマット、特にアルファ透過層から派生した新たなエクスプロイトを明らかにする。
提案手法では,このα層を人間の観察者には見えないが,AI画像プロセッサによって完全に動作可能なチャネルとして用いる。
この脆弱性のテスト対象は、Apple、Microsoft、Google、Salesforce、Nvidia、Facebookの代表的なビジョンシステムにまたがる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This investigation reveals a novel exploit derived from PNG image file
formats, specifically their alpha transparency layer, and its potential to fool
multiple AI vision systems. Our method uses this alpha layer as a clandestine
channel invisible to human observers but fully actionable by AI image
processors. The scope tested for the vulnerability spans representative vision
systems from Apple, Microsoft, Google, Salesforce, Nvidia, and Facebook,
highlighting the attack's potential breadth. This vulnerability challenges the
security protocols of existing and fielded vision systems, from medical imaging
to autonomous driving technologies. Our experiments demonstrate that the
affected systems, which rely on convolutional neural networks or the latest
multimodal language models, cannot quickly mitigate these vulnerabilities
through simple patches or updates. Instead, they require retraining and
architectural changes, indicating a persistent hole in multimodal technologies
without some future adversarial hardening against such vision-language
exploits.
- Abstract(参考訳): この調査は、PNG画像ファイルフォーマット、特にアルファ透明性層に由来する新たなエクスプロイトと、複数のAIビジョンシステムを騙す可能性を明らかにする。
提案手法では,このα層を人間の観察者には見えないが,AI画像プロセッサによって完全に動作可能なチャネルとして用いる。
この脆弱性のテスト対象は、Apple、Microsoft、Google、Salesforce、Nvidia、Facebookの代表的なビジョンシステムで、攻撃の可能性を強調している。
この脆弱性は、医療画像から自動運転技術まで、既存のビジョンシステムのセキュリティプロトコルに挑戦している。
我々の実験は、畳み込みニューラルネットワークや最新のマルチモーダル言語モデルに依存する影響を受けるシステムが、単純なパッチやアップデートによってこれらの脆弱性を迅速に軽減できないことを示した。
代わりに、それらは再訓練とアーキテクチャの変更を必要とし、このような視覚言語によるエクスプロイトに対する将来の敵対的強固化なしに、マルチモーダル技術の永続的な穴を示唆している。
関連論文リスト
- A Survey on Vision-Language-Action Models for Embodied AI [71.16123093739932]
視覚言語アクションモデル(VLA)はロボット学習の基盤となっている。
汎用性、デキスタリティ、一般化可能性など、様々な手法が提案されている。
VLAは、長い水平タスクを実行可能なサブタスクに分解できるハイレベルなタスクプランナとして機能する。
論文 参考訳(メタデータ) (2024-05-23T01:43:54Z) - A Red Teaming Framework for Securing AI in Maritime Autonomous Systems [0.0]
海上自律システムのAIセキュリティを評価するための,最初のレッドチームフレームワークを提案する。
このフレームワークはマルチパートのチェックリストであり、異なるシステムや要件に合わせて調整できる。
私たちはこのフレームワークが、現実の海上自律システムAI内の多数の脆弱性を明らかにするために、レッドチームにとって非常に効果的であることを実証しています。
論文 参考訳(メタデータ) (2023-12-08T14:59:07Z) - Adversarial Prompt Tuning for Vision-Language Models [86.5543597406173]
AdvPT(Adversarial Prompt Tuning)は、視覚言語モデル(VLM)における画像エンコーダの対向ロバスト性を高める技術である。
我々は,AdvPTが白箱攻撃や黒箱攻撃に対する抵抗性を向上し,既存の画像処理による防御技術と組み合わせることで相乗効果を示すことを示した。
論文 参考訳(メタデータ) (2023-11-19T07:47:43Z) - Representation Engineering: A Top-Down Approach to AI Transparency [132.0398250233924]
表現工学の新たな領域(RepE)を特定し,特徴付ける
RepEは、神経細胞や回路ではなく、人口レベルの表現を解析の中心に置く。
これらの手法が、広範囲の安全関連問題に対してどのようにトラクションを提供するかを紹介する。
論文 参考訳(メタデータ) (2023-10-02T17:59:07Z) - Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - Developing Imperceptible Adversarial Patches to Camouflage Military
Assets From Computer Vision Enabled Technologies [0.0]
畳み込みニューラルネットワーク(CNN)は、オブジェクト検出の急速な進歩と高いレベルの成功を示している。
最近の証拠は敵の攻撃に対する脆弱性を浮き彫りにした。
本稿では、大規模な軍事資産を模倣することのできる、知覚不能なパッチを生成するユニークな方法を提案する。
論文 参考訳(メタデータ) (2022-02-17T20:31:51Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Next Wave Artificial Intelligence: Robust, Explainable, Adaptable,
Ethical, and Accountable [5.4138734778206]
ディープニューラルネットワークはコンピュータビジョン、音声認識、言語処理、ゲームプレイング、ロボット工学において多くの成功と新機能をもたらしている。
関連する制限は、今日のAIシステムの中で最も成功した場合でも脆さに苦しむことです。
AIシステムは、トレーニングデータから性別、人種、その他の要因に基づくバイアスを吸収し、その後の意思決定におけるバイアスをさらに大きくすることができる。
論文 参考訳(メタデータ) (2020-12-11T00:50:09Z) - An Efficient UAV-based Artificial Intelligence Framework for Real-Time
Visual Tasks [33.489573797811474]
アドホックなビジュアルベースのAIアプリケーションを容易に統合できるように、マルチレイヤAI(MLAI)フレームワークを導入します。
特徴とその利点を示すために,オブジェクト検出,目標追跡,ターゲットハンドオーバのための,現代の視覚的深層学習モデルを実装し,評価した。
論文 参考訳(メタデータ) (2020-04-13T18:53:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。