論文の概要: A Modified Drake Equation for Assessing Adversarial Risk to Machine
Learning Models
- arxiv url: http://arxiv.org/abs/2103.02718v1
- Date: Wed, 3 Mar 2021 22:07:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-07 10:39:18.649742
- Title: A Modified Drake Equation for Assessing Adversarial Risk to Machine
Learning Models
- Title(参考訳): 機械学習モデルに対する逆リスク評価のための修正ドレーク方程式
- Authors: Josh Kalin, David Noever, Matthew Ciolino
- Abstract要約: ドレーク方程式は不確実性をパラメータ化し、無線で使える地球外文明の数を推定するために用いられることで有名である。
本研究は, 従来のドレイク方程式の定式化を改良し, 展開モデルに対する潜在的に成功した敵攻撃の数を推定することを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Each machine learning model deployed into production has a risk of
adversarial attack. Quantifying the contributing factors and uncertainties
using empirical measures could assist the industry with assessing the risk of
downloading and deploying common machine learning model types. The Drake
Equation is famously used for parameterizing uncertainties and estimating the
number of radio-capable extra-terrestrial civilizations. This work proposes
modifying the traditional Drake Equation's formalism to estimate the number of
potentially successful adversarial attacks on a deployed model. While previous
work has outlined methods for discovering vulnerabilities in public model
architectures, the proposed equation seeks to provide a semi-quantitative
benchmark for evaluating the potential risk factors of adversarial attacks.
- Abstract(参考訳): プロダクションにデプロイされた各機械学習モデルには、敵攻撃のリスクがある。
経験的尺度を用いた寄与要因と不確実性の定量化は、一般的な機械学習モデルタイプのダウンロードとデプロイのリスクを評価する上で、業界に役立つだろう。
ドレーク方程式は不確実性をパラメータ化し、無線で使える地球外文明の数を推定するために用いられることで有名である。
本研究は, 従来のドレイク方程式の定式化を改良し, 展開モデルに対する潜在的に成功した敵攻撃の数を推定することを提案する。
これまでの研究では、パブリックモデルアーキテクチャの脆弱性を発見する方法を概説しているが、提案された方程式は、敵対的攻撃の潜在的な危険因子を評価するための半定量的ベンチマークを提供する。
関連論文リスト
- A Formal Framework for Assessing and Mitigating Emergent Security Risks in Generative AI Models: Bridging Theory and Dynamic Risk Mitigation [0.3413711585591077]
大規模言語モデル(LLM)や拡散モデルを含む生成AIシステムが急速に進歩するにつれ、その採用が増加し、新たな複雑なセキュリティリスクがもたらされた。
本稿では,これらの突発的なセキュリティリスクを分類・緩和するための新しい形式的枠組みを提案する。
我々は、潜時空間利用、マルチモーダル・クロスアタック・ベクター、フィードバックループによるモデル劣化など、未探索のリスクを特定した。
論文 参考訳(メタデータ) (2024-10-15T02:51:32Z) - Adversarial Robustness of Open-source Text Classification Models and Fine-Tuning Chains [11.379606061113348]
オープンソースのAIモデルと微調整チェーンは、敵攻撃のような新たなセキュリティリスクに直面している。
本稿では,超微調整による上流-下流関係によって形成される,オープンソースのAIモデルとそのチェーンの対角的堅牢性を検討することを目的とする。
論文 参考訳(メタデータ) (2024-08-06T05:17:17Z) - Improved Membership Inference Attacks Against Language Classification Models [0.0]
分類モデルに対するメンバシップ推論攻撃を実行するための新しいフレームワークを提案する。
本手法は,単一攻撃モデルやクラスラベル毎の攻撃モデルよりも精度が高いことを示す。
論文 参考訳(メタデータ) (2023-10-11T06:09:48Z) - Selecting Models based on the Risk of Damage Caused by Adversarial
Attacks [2.969705152497174]
規制、法的責任、社会的懸念は、安全およびセキュリティクリティカルなアプリケーションにおけるAIの採用に挑戦する。
重要な懸念の1つは、敵が検出されずにモデル予測を操作することで害を引き起こす可能性があることである。
本稿では,敵攻撃による被害の確率をモデル化し,統計的に推定する手法を提案する。
論文 参考訳(メタデータ) (2023-01-28T10:24:38Z) - Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of
Foundation Models [103.71308117592963]
本稿ではメタラーニングと逆学習の技法を活用した自己破壊モデルの学習アルゴリズムを提案する。
小規模な実験では、MLACは、BERTスタイルのモデルが性別識別を行うために再目的化されることをほとんど防ぐことができることを示す。
論文 参考訳(メタデータ) (2022-11-27T21:43:45Z) - Overparameterized Linear Regression under Adversarial Attacks [0.0]
敵攻撃時の線形回帰の誤差について検討した。
線形モデルに機能を追加することは、さらなる堅牢性や脆性の原因になる可能性がある。
論文 参考訳(メタデータ) (2022-04-13T09:50:41Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Evaluating the Safety of Deep Reinforcement Learning Models using
Semi-Formal Verification [81.32981236437395]
本稿では,区間分析に基づく半形式的意思決定手法を提案する。
本手法は, 標準ベンチマークに比較して, 形式検証に対して比較結果を得る。
提案手法は, 意思決定モデルにおける安全性特性を効果的に評価することを可能にする。
論文 参考訳(メタデータ) (2020-10-19T11:18:06Z) - Risk-Sensitive Sequential Action Control with Multi-Modal Human
Trajectory Forecasting for Safe Crowd-Robot Interaction [55.569050872780224]
本稿では,リスクに敏感な最適制御に基づく安全な群集ロボットインタラクションのためのオンラインフレームワークを提案し,そのリスクをエントロピーリスク尺度でモデル化する。
私たちのモジュラーアプローチは、クラウドとロボットの相互作用を学習ベースの予測とモデルベースの制御に分離します。
シミュレーション研究と実世界の実験により、このフレームワークは、現場にいる50人以上の人間との衝突を避けながら、安全で効率的なナビゲーションを実現することができることが示された。
論文 参考訳(メタデータ) (2020-09-12T02:02:52Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。