論文の概要: Amulet: a Python Library for Assessing Interactions Among ML Defenses and Risks
- arxiv url: http://arxiv.org/abs/2509.12386v2
- Date: Fri, 07 Nov 2025 14:22:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 18:58:55.548637
- Title: Amulet: a Python Library for Assessing Interactions Among ML Defenses and Risks
- Title(参考訳): Amulet: MLディフェンスとリスク間のインタラクションを評価するPythonライブラリ
- Authors: Asim Waheed, Vasisht Duddu, Rui Zhang, Sebastian Szyller,
- Abstract要約: Amuletは、機械学習の防御とリスクの間の意図的および意図しない相互作用を評価するための最初のPythonライブラリである。
アミューレットは防衛がどう相互作用するかを研究するための統一された基盤を提供し、複数のリスクをまたいだ意図しない相互作用を初めて体系的に評価することを可能にする。
- 参考スコア(独自算出の注目度): 11.140152600768078
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) models are susceptible to various risks to security, privacy, and fairness. Most defenses are designed to protect against each risk individually (intended interactions) but can inadvertently affect susceptibility to other unrelated risks (unintended interactions). We introduce Amulet, the first Python library for evaluating both intended and unintended interactions among ML defenses and risks. Amulet is comprehensive by including representative attacks, defenses, and metrics; extensible to new modules due to its modular design; consistent with a user-friendly API template for inputs and outputs; and applicable for evaluating novel interactions. By satisfying all four properties, Amulet offers a unified foundation for studying how defenses interact, enabling the first systematic evaluation of unintended interactions across multiple risks.
- Abstract(参考訳): 機械学習(ML)モデルは、セキュリティ、プライバシ、公正性に対するさまざまなリスクに影響を受けやすい。
ほとんどの防御は個々のリスク(意図しない相互作用)から保護するために設計されているが、他の無関係なリスク(意図しない相互作用)に対する感受性に不注意に影響を及ぼす可能性がある。
Amuletは、MLディフェンスとリスクの間の意図的および意図しない相互作用を評価するための最初のPythonライブラリである。
Amuletは、代表的攻撃、防御、メトリクス、モジュール設計による新しいモジュールの拡張、入力と出力のためのユーザフレンドリなAPIテンプレートとの整合性、新しいインタラクションの評価に適用できる。
4つの特性をすべて満たすことで、アミュレットは防衛がどのように相互作用するかを研究するための統一された基盤を提供し、複数のリスクをまたいだ意図しない相互作用を初めて体系的に評価することを可能にする。
関連論文リスト
- A Systematic Survey of Model Extraction Attacks and Defenses: State-of-the-Art and Perspectives [65.3369988566853]
近年の研究では、敵が対象モデルの機能を複製できることが示されている。
モデル抽出攻撃は知的財産権、プライバシー、システムのセキュリティに脅威をもたらす。
本稿では,攻撃機構,防衛手法,計算環境に応じてMEAを分類する新しい分類法を提案する。
論文 参考訳(メタデータ) (2025-08-20T19:49:59Z) - SafeMLRM: Demystifying Safety in Multi-modal Large Reasoning Models [50.34706204154244]
推論能力の獲得は、引き継がれた安全アライメントを壊滅的に劣化させる。
特定のシナリオは、25倍の攻撃率を被る。
MLRMは、厳密な推論と問合せの安全結合にもかかわらず、初期段階の自己補正を示す。
論文 参考訳(メタデータ) (2025-04-09T06:53:23Z) - Model Tampering Attacks Enable More Rigorous Evaluations of LLM Capabilities [49.09703018511403]
大規模言語モデル(LLM)のリスクと能力の評価は、AIのリスク管理とガバナンスフレームワークにますます取り入れられている。
現在、ほとんどのリスク評価は、システムから有害な振る舞いを誘発する入力を設計することで実施されている。
本稿では,遅延活性化や重みへの修正が可能なモデル改ざん攻撃を用いたLCMの評価を提案する。
論文 参考訳(メタデータ) (2025-02-03T18:59:16Z) - Unveiling the Misuse Potential of Base Large Language Models via In-Context Learning [61.2224355547598]
大規模言語モデル(LLM)のオープンソース化は、アプリケーション開発、イノベーション、科学的進歩を加速させる。
我々の調査は、この信念に対する重大な監視を露呈している。
我々の研究は、慎重に設計されたデモを配置することにより、ベースLSMが悪意のある命令を効果的に解釈し実行できることを実証する。
論文 参考訳(メタデータ) (2024-04-16T13:22:54Z) - SoK: Unintended Interactions among Machine Learning Defenses and Risks [14.021381432040057]
過度に適合し、意図しない相互作用を弱体化させるという予想に基づく枠組みを提案する。
2つの未探索相互作用の予想に我々のフレームワークを使用し、我々の予想を実証的に検証する。
論文 参考訳(メタデータ) (2023-12-07T18:57:36Z) - A Security Risk Taxonomy for Prompt-Based Interaction With Large Language Models [5.077431021127288]
本稿では,大規模言語モデル(LLM)によるセキュリティリスクに着目し,現在の研究のギャップに対処する。
我々の研究は,ユーザモデル通信パイプラインに沿ったセキュリティリスクの分類を提案し,一般的に使用されている機密性,完全性,可用性(CIA)3つのトライアドと並行して,ターゲットタイプと攻撃タイプによる攻撃を分類する。
論文 参考訳(メタデータ) (2023-11-19T20:22:05Z) - Conflicting Interactions Among Protections Mechanisms for Machine
Learning Models [15.047412609389983]
MLモデルは様々な攻撃の標的となっている。
セキュリティとプライバシの交差点における研究、そしてMLは繁栄している。
特定の関心事に最適な解は、他の関心事に対処しようとする解と負に相互作用することがある。
論文 参考訳(メタデータ) (2022-07-05T12:18:06Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。