論文の概要: Hardware Honeypot: Setting Sequential Reverse Engineering on a Wrong Track
- arxiv url: http://arxiv.org/abs/2305.03707v3
- Date: Sun, 5 May 2024 14:34:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 01:36:03.971135
- Title: Hardware Honeypot: Setting Sequential Reverse Engineering on a Wrong Track
- Title(参考訳): ハードウェア・ハニーポット:シークエンシャル・リバース・エンジニアリングを間違ったトラックに設定する
- Authors: Michaela Brunner, Hye Hyun Lee, Alexander Hepp, Johanna Baehr, Georg Sigl,
- Abstract要約: この研究は、有限状態機械(FSM)のリバースエンジニアリング(RE)に対する新しいアプローチを示す。
ハードウェアのFSMミツバチはREツールを間違っていますが、ツールに関しては非常に魅力的なFSMです。
その結果、現在最先端のRE法はFSM候補として非常に魅力的なミツバチを好んでいるか、あるいは正しいFSMをもはや検出していないことが明らかとなった。
- 参考スコア(独自算出の注目度): 40.763287956790954
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reverse engineering (RE) of finite state machines (FSMs) is a serious threat when protecting designs against RE attacks. While most recent protection techniques rely on the security of a secret key, this work presents a new approach: hardware FSM honeypots. These honeypots lead the RE tools to a wrong but, for the tools, very attractive FSM, while making the original FSM less attractive. The results show that state-of-the-art RE methods favor the highly attractive honeypot as FSM candidate or do no longer detect the correct, original FSM.
- Abstract(参考訳): 有限状態機械(FSM)のリバースエンジニアリング(RE)は、RE攻撃から設計を保護する際に深刻な脅威となる。
最近の保護技術は秘密鍵のセキュリティに依存しているが、この研究は、ハードウェアFSMハニーポットという新しいアプローチを提示している。
これらのミツバチはREツールを間違った方向に導くが、ツールにとって非常に魅力的なFSMでありながら、オリジナルのFSMを魅力的にしない。
その結果、最先端のRE法ではFSM候補として非常に魅力的なミツバチが好まれるか、あるいは元のFSMが検出されなくなったことが示唆された。
関連論文リスト
- A Learning-Based Attack Framework to Break SOTA Poisoning Defenses in Federated Learning [27.512343847036018]
Federated Learning(FL)は、データプライバシを保護する新しいクライアントサーバ分散学習フレームワークである。
近年の研究では、FLは毒殺攻撃に弱いことが示されている。
堅牢なアグリゲータ(AGR)を備えた多くの防衛策がこの問題を軽減するために提案されているが、いずれも先進的な攻撃によって破壊されている。
本稿では,これらの新規なロバストなAGRも,慎重に設計された毒殺攻撃に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2024-07-21T21:02:11Z) - Automated Hardware Logic Obfuscation Framework Using GPT [3.1789948141373077]
本稿では,GPT(Generative Pre-trained Transformer)モデルを利用した難読化プロセスを自動化する新しいフレームワークであるObfus-chatを紹介する。
提案フレームワークは,ハードウェア設計ネットリストとキーサイズを入力として受け入れ,セキュリティ向上のために最適化された難読コードを自動的に生成する。
論文 参考訳(メタデータ) (2024-05-20T17:33:00Z) - ResLoRA: Identity Residual Mapping in Low-Rank Adaption [96.59370314485074]
低ランク適応(LoRA)の改良フレームワークであるResLoRAを提案する。
提案手法は,LoRAと比較してトレーニング可能なパラメータや推論コストを必要とせずに,より少ないトレーニングステップでより良い結果を得ることができる。
NLG,NLU,テキスト・ツー・イメージタスクの実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-02-28T04:33:20Z) - Break the Breakout: Reinventing LM Defense Against Jailbreak Attacks
with Self-Refinement [2.854482269849925]
言語モデル(LM)は、敵の誤用に対する悪用に対して脆弱である。
安全でないLMであっても、優れた安全性を実現するフォーマッティングによる自己再定義を提案する。
また、安全性に配慮しないLMは、より便利で安全な応答を提供することで、安全に配慮したLMよりも優れていることも見てきた。
論文 参考訳(メタデータ) (2024-02-23T08:22:24Z) - On Prompt-Driven Safeguarding for Large Language Models [172.13943777203377]
表現空間では、入力クエリは通常、安全プロンプトによって「より高い拒絶」方向に移動される。
これらの知見に触発されて,安全性向上,すなわちDROの最適化手法を提案する。
安全性プロンプトを継続的かつトレーニング可能な埋め込みとして扱うことで、DROは、その有害性に応じて、クエリの表現を拒否方向に沿ってあるいは反対に移動させることを学ぶ。
論文 参考訳(メタデータ) (2024-01-31T17:28:24Z) - Optimally Blending Honeypots into Production Networks: Hardness and Algorithms [11.847370655794608]
ハニーポットは攻撃者の新たな攻撃を暴露する重要なサイバー防御技術である。
本稿では,ハニーポットの展開という新たなパラダイムのサイバーセキュリティ効果を特徴付けるための系統的研究を開始する。
論文 参考訳(メタデータ) (2024-01-12T18:54:51Z) - Evil from Within: Machine Learning Backdoors through Hardware Trojans [72.99519529521919]
バックドアは、自動運転車のようなセキュリティクリティカルなシステムの整合性を損なう可能性があるため、機械学習に深刻な脅威をもたらす。
私たちは、機械学習のための一般的なハードウェアアクセラレーターに完全に存在するバックドアアタックを導入します。
我々は,Xilinx Vitis AI DPUにハードウェアトロイの木馬を埋め込むことにより,攻撃の実現可能性を示す。
論文 参考訳(メタデータ) (2023-04-17T16:24:48Z) - Few-Shot Backdoor Attacks on Visual Object Tracking [80.13936562708426]
視覚オブジェクト追跡(VOT)は、自律運転やインテリジェント監視システムなど、ミッションクリティカルなアプリケーションで広く採用されている。
学習過程の調整により,隠れたバックドアをVOTモデルに容易に埋め込むことができることを示す。
我々の攻撃は潜在的な防御に耐性があることを示し、潜在的なバックドア攻撃に対するVOTモデルの脆弱性を強調します。
論文 参考訳(メタデータ) (2022-01-31T12:38:58Z) - Recovering AES Keys with a Deep Cold Boot Attack [91.22679787578438]
コールドブート攻撃は、電源がシャットダウンされた直後に破損したランダムアクセスメモリを検査する。
本研究では,AES鍵に対する攻撃を適用するために,深誤り訂正符号手法の新たな暗号版とSATソルバ方式を併用する。
以上の結果から,本手法は攻撃方法の精度を極めて高いマージンで上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2021-06-09T07:57:01Z) - Montage: A Neural Network Language Model-Guided JavaScript Engine Fuzzer [18.908548472588976]
私たちは、JSエンジンの脆弱性を見つけるための最初のNNLM誘導ファザであるMontageを紹介します。
Montage氏は最新のJSエンジンで3つのCVEを含む37の現実世界のバグを発見した。
論文 参考訳(メタデータ) (2020-01-13T08:45:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。