論文の概要: ALMOST: Adversarial Learning to Mitigate Oracle-less ML Attacks via
Synthesis Tuning
- arxiv url: http://arxiv.org/abs/2303.03372v1
- Date: Mon, 6 Mar 2023 18:55:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 14:53:31.956513
- Title: ALMOST: Adversarial Learning to Mitigate Oracle-less ML Attacks via
Synthesis Tuning
- Title(参考訳): ALMOST: シンセサイザーチューニングによるOracleなしML攻撃軽減のための逆学習
- Authors: Animesh Basak Chowdhury, Lilas Alrahis, Luca Collini, Johann Knechtel,
Ramesh Karri, Siddharth Garg, Ozgur Sinanoglu, Benjamin Tan
- Abstract要約: Oracleなしの機械学習(ML)攻撃は、さまざまなロジックロックスキームを壊した。
合成チューニングによるオラクルレスML攻撃を軽減するための逆学習フレームワークであるALMOSTを提案する。
- 参考スコア(独自算出の注目度): 18.758747687330384
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Oracle-less machine learning (ML) attacks have broken various logic locking
schemes. Regular synthesis, which is tailored for area-power-delay
optimization, yields netlists where key-gate localities are vulnerable to
learning. Thus, we call for security-aware logic synthesis. We propose ALMOST,
a framework for adversarial learning to mitigate oracle-less ML attacks via
synthesis tuning. ALMOST uses a simulated-annealing-based synthesis recipe
generator, employing adversarially trained models that can predict
state-of-the-art attacks' accuracies over wide ranges of recipes and key-gate
localities. Experiments on ISCAS benchmarks confirm the attacks' accuracies
drops to around 50\% for ALMOST-synthesized circuits, all while not undermining
design optimization.
- Abstract(参考訳): Oracleなしの機械学習(ML)攻撃は、さまざまなロジックロックスキームを壊した。
領域電力遅延最適化に適した正規合成では、キーゲートの局所性が学習に弱いネットリストが得られる。
そこで我々はセキュリティを意識した論理合成を提案する。
合成チューニングによるオラクルレスML攻撃を軽減するための逆学習フレームワークであるALMOSTを提案する。
ALMOSTはシミュレートアニーリングベースの合成合成生成装置を使用しており、さまざまなレシピやキーゲートの局所性に対して、最先端の攻撃の精度を予測できる敵の訓練されたモデルを使用している。
ISCASベンチマークの実験では、設計最適化を損なうことなく、ALMOST合成回路のアタックの精度はおよそ50%に低下した。
関連論文リスト
- Mitigating Catastrophic Forgetting in Large Language Models with
Self-Synthesized Rehearsal [51.36134981232229]
大規模言語モデル(LLM)は、連続学習中に破滅的な忘れ込みに悩まされる。
自己合成リハーサル(Self-Synthesized Rehearsal, SSR)と呼ばれるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-02T16:11:23Z) - Retrieval-Guided Reinforcement Learning for Boolean Circuit Minimization [23.075466444266528]
本研究は論理合成のための学習と探索技術について徹底的に検討する。
ABC-RLは、検索プロセス中に事前学習したエージェントからのレコメンデーションを順応的に調整する、巧妙に調整された$alpha$パラメータである。
その結果, 合成回路のQoR(Quality-of-result)は, 最先端技術と比較して最大24.8%向上した。
論文 参考訳(メタデータ) (2024-01-22T18:46:30Z) - Scale-MIA: A Scalable Model Inversion Attack against Secure Federated
Learning via Latent Space Reconstruction [26.9559481641707]
フェデレーション学習は、参加者のデータプライバシを保護する能力で知られている。
最近出現したモデル反転攻撃 (MIA) は、悪意のあるパラメータサーバが、モデルの更新によって個々のユーザーのローカルデータサンプルを再構築できることを示した。
本報告では,クライアントのトレーニングサンプルを,集約された更新から効率よく,かつ正確に回収できる新しいMIAであるScale-MIAを提案する。
論文 参考訳(メタデータ) (2023-11-10T00:53:22Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - INVICTUS: Optimizing Boolean Logic Circuit Synthesis via Synergistic
Learning and Search [18.558280701880136]
最先端論理合成アルゴリズムは、多数の論理最小化を持つ。
INVICTUSは、以前に見られた設計のトレーニングデータセットに基づいて、論理最小化のシーケンスを生成する。
論文 参考訳(メタデータ) (2023-05-22T15:50:42Z) - Reconstruction-based LSTM-Autoencoder for Anomaly-based DDoS Attack
Detection over Multivariate Time-Series Data [6.642599588462097]
DDoS(Distributed Denial-of-Service)攻撃は、ターゲットとするサーバやサービス、あるいはネットワークの通常のトラフィックを破壊しようとする悪意のある試みである。
従来の統計的および浅層機械学習技術は、浅層データと特徴選択に基づいて表面異常を検出することができるが、これらの手法は見えないDDoS攻撃を検出することはできない。
本稿では,LSTM-Autoencoder (LSTM-AE) と名づけられた再構築型異常検出モデルを提案する。
論文 参考訳(メタデータ) (2023-04-21T03:56:03Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Fast Distributionally Robust Learning with Variance Reduced Min-Max
Optimization [85.84019017587477]
分散的ロバストな教師付き学習は、現実世界のアプリケーションのための信頼性の高い機械学習システムを構築するための重要なパラダイムとして登場している。
Wasserstein DRSLを解くための既存のアルゴリズムは、複雑なサブプロブレムを解くか、勾配を利用するのに失敗する。
我々はmin-max最適化のレンズを通してwaserstein drslを再検討し、スケーラブルで効率的に実装可能な超勾配アルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-04-27T16:56:09Z) - Composite Adversarial Attacks [57.293211764569996]
敵対攻撃は、機械学習(ML)モデルを欺くための技術です。
本論文では,攻撃アルゴリズムの最適組み合わせを自動的に探索するための複合攻撃法(Composite Adrial Attack,CAA)を提案する。
CAAは11の防衛でトップ10の攻撃を破り、時間の経過は少ない。
論文 参考訳(メタデータ) (2020-12-10T03:21:16Z) - Challenging the Security of Logic Locking Schemes in the Era of Deep
Learning: A Neuroevolutionary Approach [0.2982610402087727]
ディープラーニングはロジックロックの領域で導入されている。
私たちはSnapShotを紹介します。これは、ニューラルネットワークを利用した最初のタイプのロジックロックに対する新しい攻撃です。
本研究では,SnapShotが選択した攻撃シナリオに対して平均キー予測精度82.60%を達成することを示す。
論文 参考訳(メタデータ) (2020-11-20T13:03:19Z) - Revisiting LSTM Networks for Semi-Supervised Text Classification via
Mixed Objective Function [106.69643619725652]
我々は,単純なBiLSTMモデルであっても,クロスエントロピー損失でトレーニングした場合に,競争的な結果が得られるようなトレーニング戦略を開発する。
いくつかのベンチマークデータセット上で,テキスト分類タスクの最先端結果について報告する。
論文 参考訳(メタデータ) (2020-09-08T21:55:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。