論文の概要: Do Not Trust Power Management: A Survey on Internal Energy-based Attacks Circumventing Trusted Execution Environments Security Properties
- arxiv url: http://arxiv.org/abs/2405.15537v2
- Date: Wed, 02 Oct 2024 13:02:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-03 15:16:25.290769
- Title: Do Not Trust Power Management: A Survey on Internal Energy-based Attacks Circumventing Trusted Execution Environments Security Properties
- Title(参考訳): 信頼できない電力管理:信頼された実行環境とセキュリティ特性を包含する内部エネルギーベースの攻撃に関する調査
- Authors: Owen Le Gonidec, Maria Méndez Real, Guillaume Bouffard, Jean-Christophe Prévotet,
- Abstract要約: 2015年以降、エネルギー管理機構を利用したソフトウェア対応のハードウェア攻撃が出現している。
彼らの目標は、TEEのセキュリティ保証をバイパスし、暗号鍵のような機密情報を公開することである。
本稿では,これらの攻撃の包括的知識調査と文献対策の評価について述べる。
- 参考スコア(独自算出の注目度): 0.21665864340363084
- License:
- Abstract: Over the past few years, several research groups have introduced innovative hardware designs for Trusted Execution Environments (TEEs), aiming to secure applications against potentially compromised privileged software, including the kernel. Since 2015, a new class of software-enabled hardware attacks leveraging energy management mechanisms has emerged. These internal energy-based attacks comprise fault, side-channel and covert channel attacks. Their aim is to bypass TEE security guarantees and expose sensitive information such as cryptographic keys. They have increased in prevalence in the past few years. Popular TEE implementations, such as ARM TrustZone and Intel SGX, incorporate countermeasures against these attacks. However, these countermeasures either hinder the capabilities of the power management mechanisms or have been shown to provide insufficient system protection. This article presents the first comprehensive knowledge survey of these attacks, along with an evaluation of literature countermeasures. We believe that this study will spur further community efforts towards this increasingly important type of attacks.
- Abstract(参考訳): ここ数年、いくつかの研究グループが、カーネルを含む潜在的に侵害された特権的ソフトウェアに対してアプリケーションをセキュアにすることを目的として、Trusted Execution Environments (TEEs) のための革新的なハードウェア設計を導入してきた。
2015年以降、エネルギー管理機構を利用したソフトウェア対応のハードウェア攻撃が出現している。
これらの内部エネルギーベースの攻撃は、フォールト、サイドチャネル、シークレットチャネルアタックを含む。
彼らの目標は、TEEのセキュリティ保証をバイパスし、暗号鍵のような機密情報を公開することである。
ここ数年で増加傾向にある。
ARM TrustZoneやIntel SGXといった一般的なTEE実装には、これらの攻撃に対する対策が組み込まれている。
しかし、これらの対策は、電力管理機構の能力を妨げるか、あるいはシステム保護に不十分であることが示されている。
本稿では,これらの攻撃の包括的知識調査と文献対策の評価について述べる。
この研究は、このますます重要なタイプの攻撃に対して、コミュニティのさらなる取り組みを促すものと信じている。
関連論文リスト
- SoK: A Defense-Oriented Evaluation of Software Supply Chain Security [3.165193382160046]
ソフトウェアサプライチェーンのセキュリティ研究と開発の次の段階は、防衛指向のアプローチから大きな恩恵を受けるだろう、と私たちは主張する。
本稿では,ソフトウェアサプライチェーンの基本的な要素とその因果関係を表現するフレームワークであるAStRAモデルを紹介する。
論文 参考訳(メタデータ) (2024-05-23T18:53:48Z) - GAN-GRID: A Novel Generative Attack on Smart Grid Stability Prediction [53.2306792009435]
我々は,現実の制約に合わせたスマートグリッドの安定性予測システムを対象とした,新たな敵攻撃GAN-GRIDを提案する。
以上の結果から,データやモデル知識を欠いた,安定度モデルのみに武装した敵が,攻撃成功率0.99の安定度でデータを作成できることが判明した。
論文 参考訳(メタデータ) (2024-05-20T14:43:46Z) - The MESA Security Model 2.0: A Dynamic Framework for Mitigating Stealth Data Exfiltration [0.0]
ステルスデータ流出は、隠蔽侵入、拡張された検出不能、機密データの不正な拡散を特徴とする重要なサイバー脅威である。
以上の結果から,従来の防衛戦略はこれらの高度な脅威に対処するには不十分であることが判明した。
この複雑な風景をナビゲートする上で、潜在的な脅威を予測し、防衛を継続的に更新することが重要です。
論文 参考訳(メタデータ) (2024-05-17T16:14:45Z) - Generative AI in Cybersecurity [0.0]
生成人工知能(GAI)は、データ分析、パターン認識、意思決定プロセスの分野を変える上で重要な役割を担っている。
GAIは急速に進歩し、サイバーセキュリティプロトコルや規制フレームワークの現在のペースを超越している。
この研究は、マルウェア生成におけるGAIの高度な利用に対抗するために、より複雑な防衛戦略を積極的に特定し、開発する組織にとって重要な必要性を強調している。
論文 参考訳(メタデータ) (2024-05-02T19:03:11Z) - A Zero Trust Framework for Realization and Defense Against Generative AI
Attacks in Power Grid [62.91192307098067]
本稿では電力グリッドサプライチェーン(PGSC)のための新しいゼロ信頼フレームワークを提案する。
潜在的なGenAIによる攻撃ベクターの早期発見、テールリスクに基づく安定性の評価、そしてそのような脅威の緩和を容易にする。
実験の結果,ゼロ信頼フレームワークは攻撃ベクトル生成に95.7%の精度,95%安定PGSCに9.61%のリスク尺度,GenAIによる攻撃に対する防御に99%の信頼性が得られた。
論文 参考訳(メタデータ) (2024-03-11T02:47:21Z) - Penetration Testing of 5G Core Network Web Technologies [53.89039878885825]
Web セキュリティの観点から 5G コアのセキュリティ評価を行った。
我々はSTRIDE脅威モデリングアプローチを用いて、脅威ベクトルと関連する攻撃の完全なリストを定義する。
我々の分析によると、これらのコアはすべて、特定された攻撃ベクトルのうち少なくとも2つに対して脆弱である。
論文 参考訳(メタデータ) (2024-03-04T09:27:11Z) - Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [65.77763092833348]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、これらのエージェントは安全性を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - Applying Large Language Models to Power Systems: Potential Security
Threats [14.819055765376174]
本稿では,大規模言語モデル(LLM)を電力システムに適用することにより生じる潜在的な脅威を分析する。
緊急の研究開発の必要性を強調している。
論文 参考訳(メタデータ) (2023-11-22T12:55:02Z) - Trust-based Approaches Towards Enhancing IoT Security: A Systematic Literature Review [3.0969632359049473]
本研究は,IoTに対するTrustベースのサイバーセキュリティセキュリティアプローチについて,系統的な文献レビューを行う。
我々は、これらの脅威に対処するために存在する共通の信頼に基づく緩和テクニックを強調した。
いくつかのオープンな問題が強調され、将来の研究の方向性が提示された。
論文 参考訳(メタデータ) (2023-11-20T12:21:35Z) - On the Security Risks of Knowledge Graph Reasoning [71.64027889145261]
我々は、敵の目標、知識、攻撃ベクトルに応じて、KGRに対するセキュリティ脅威を体系化する。
我々は、このような脅威をインスタンス化する新しいタイプの攻撃であるROARを提示する。
ROARに対する潜在的な対策として,潜在的に有毒な知識のフィルタリングや,対向的な拡張クエリによるトレーニングについて検討する。
論文 参考訳(メタデータ) (2023-05-03T18:47:42Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。