論文の概要: A Formal Analysis of SCTP: Attack Synthesis and Patch Verification
- arxiv url: http://arxiv.org/abs/2403.05663v1
- Date: Fri, 8 Mar 2024 20:38:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-17 16:41:26.725338
- Title: A Formal Analysis of SCTP: Attack Synthesis and Patch Verification
- Title(参考訳): SCTPの形式解析:攻撃合成とパッチ検証
- Authors: Jacob Ginesin, Max von Hippel, Evan Defloor, Cristina Nita-Rotaru, Michael Tüxen,
- Abstract要約: SCTP設計の安全性について検討し,厳密なアプローチを形式的手法に根ざして検討した。
攻撃者は仲間のポートとIPを隠蔽できる外部者であり、攻撃者は悪意のあるピアであるEvil-Server、攻撃者が捕獲して再生できるReplay、パケットを変更できないOn-Path、攻撃者がピア間のチャネルを制御するOn-Pathの4つのモデルを定義します。
- 参考スコア(独自算出の注目度): 7.331862211069559
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: SCTP is a transport protocol offering features such as multi-homing, multi-streaming, and message-oriented delivery. Its two main implementations were subjected to conformance tests using the PacketDrill tool. Conformance testing is not exhaustive and a recent vulnerability (CVE-2021-3772) showed SCTP is not immune to attacks. Changes addressing the vulnerability were implemented, but the question remains whether other flaws might persist in the protocol design. We study the security of the SCTP design, taking a rigorous approach rooted in formal methods. We create a formal Promela model of SCTP, and define 10 properties capturing the essential protocol functionality based on its RFC specification and consultation with the lead RFC author. Then we show using the Spin model checker that our model satisfies these properties. We define 4 attacker models - Off-Path, where the attacker is an outsider that can spoof the port and IP of a peer; Evil-Server, where the attacker is a malicious peer; Replay, where an attacker can capture and replay, but not modify, packets; and On-Path, where the attacker controls the channel between peers. We modify an attack synthesis tool designed for transport protocols, Korg, to support our SCTP model and four attacker models. We synthesize 14 unique attacks using the attacker models - including the CVE vulnerability in the Off-Path attacker model, 4 attacks in the Evil-Server attacker model, an opportunistic ABORT attack in the Replay attacker model, and eight connection manipulation attacks in the On-Path attacker model. We show that the proposed patch eliminates the vulnerability and does not introduce new ones according to our model and protocol properties. Finally, we identify and analyze an ambiguity in the RFC, which we show can be interpreted insecurely. We propose an erratum and show that it eliminates the ambiguity.
- Abstract(参考訳): SCTPは、マルチホーミング、マルチストリーミング、メッセージ指向配信などの機能を提供するトランスポートプロトコルである。
2つの主要な実装はPacketDrillツールを使って適合性テストを受けた。
コンフォーマンステストは徹底的ではなく、最近の脆弱性 (CVE-2021-3772) ではSCTPは攻撃に免疫がないことが示された。
脆弱性に対処する変更は実装されたが、プロトコル設計において他の欠陥が持続するかどうかには疑問が残る。
SCTP設計の安全性について検討し,厳密なアプローチを形式的手法に根ざして検討した。
SCTPの正式なPromelaモデルを作成し、RFC仕様とRFCのリード作者との相談に基づいて、本質的なプロトコル機能をキャプチャする10のプロパティを定義します。
次に、Spinモデルチェッカーを用いて、モデルがこれらの特性を満たすことを示す。
攻撃者は仲間のポートとIPを隠蔽できる外部者であり、攻撃者は悪意のあるピアであるEvil-Server、攻撃者が捕獲して再生できるReplay、パケットを変更できないOn-Path、攻撃者がピア間のチャネルを制御するOn-Pathの4つのモデルを定義します。
我々は、SCTPモデルと4つの攻撃モデルをサポートするために、トランスポートプロトコルKorg用に設計された攻撃合成ツールを修正した。
攻撃モデルには、オフパス攻撃モデルにおけるCVE脆弱性、Evil-Server攻撃モデルにおける4つの攻撃、Replay攻撃モデルにおける機会論的ABORT攻撃、On-Path攻撃モデルにおける8つの接続操作攻撃が含まれる。
提案したパッチは脆弱性を排除し,我々のモデルやプロトコルの特性に応じて新たなパッチを導入しないことを示す。
最後に、RFCの曖昧さを特定し解析し、安全でない解釈をすることができることを示す。
本稿では,そのあいまいさを排除し,不明瞭さを解消する手法を提案する。
関連論文リスト
- EmInspector: Combating Backdoor Attacks in Federated Self-Supervised Learning Through Embedding Inspection [53.25863925815954]
フェデレートされた自己教師付き学習(FSSL)は、クライアントの膨大な量の未ラベルデータの利用を可能にする、有望なパラダイムとして登場した。
FSSLはアドバンテージを提供するが、バックドア攻撃に対する感受性は調査されていない。
ローカルモデルの埋め込み空間を検査し,悪意のあるクライアントを検知する埋め込み検査器(EmInspector)を提案する。
論文 参考訳(メタデータ) (2024-05-21T06:14:49Z) - Query-Based Adversarial Prompt Generation [67.238873588125]
我々は、アライメント言語モデルが有害な文字列を出力する原因となる敵の例を構築します。
GPT-3.5とOpenAIの安全分類器に対する攻撃を検証する。
論文 参考訳(メタデータ) (2024-02-19T18:01:36Z) - Mitigating Adversarial Attacks in Federated Learning with Trusted
Execution Environments [1.8240624028534085]
画像ベースアプリケーションでは、敵対的な例は、局所モデルによって誤って分類される人間の目に対してわずかに摂動した画像で構成されている。
PeltaはTrusted Execution Environments(TEEs)を利用した新しい遮蔽機構で、攻撃者が敵のサンプルを作る能力を減らす。
Peltaは6つのホワイトボックスの対人攻撃を緩和する効果を示した。
論文 参考訳(メタデータ) (2023-09-13T14:19:29Z) - One-bit Flip is All You Need: When Bit-flip Attack Meets Model Training [54.622474306336635]
メモリフォールトインジェクション技術を利用したビットフリップ攻撃(BFA)と呼ばれる新たな重み修正攻撃が提案された。
本稿では,高リスクモデルを構築するための訓練段階に敵が関与する,訓練支援ビットフリップ攻撃を提案する。
論文 参考訳(メタデータ) (2023-08-12T09:34:43Z) - Your Attack Is Too DUMB: Formalizing Attacker Scenarios for Adversarial
Transferability [17.899587145780817]
侵入攻撃は機械学習モデルに対する脅威であり、敵は悪意のあるサンプルを注入することで分類に影響を与えようとする。
本研究では,サロゲートモデルと被害者モデルの訓練条件が異なる場合の回避攻撃が転送に失敗するかどうかを解析できるDUMB攻撃モデルを提案する。
14件の異なる攻撃に対して13Kの試験を行った結果,サロゲートモデルを用いた移動可能な攻撃範囲の新たな発見が得られた。
論文 参考訳(メタデータ) (2023-06-27T10:21:27Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - MultiRobustBench: Benchmarking Robustness Against Multiple Attacks [86.70417016955459]
機械学習(ML)モデルに対するマルチアタックを検討するための,最初の統一フレームワークを提案する。
我々のフレームワークは、テストタイムの敵について異なるレベルの学習者の知識をモデル化することができる。
9種類の攻撃に対して16種類の防御モデルの有効性を評価した。
論文 参考訳(メタデータ) (2023-02-21T20:26:39Z) - Omni: Automated Ensemble with Unexpected Models against Adversarial
Evasion Attack [35.0689225703137]
機械学習に基づくセキュリティ検出モデルは、敵の回避攻撃の影響を受けやすい。
我々はオムニ(Omni)と呼ばれる手法を提案し、「予期せぬモデル」のアンサンブルを作成する方法を探る。
5種類の敵対的回避攻撃による研究において,オムニは防衛戦略として有望なアプローチであることを示す。
論文 参考訳(メタデータ) (2020-11-23T20:02:40Z) - Dispelling Myths on Superposition Attacks: Formal Security Model and
Attack Analyses [0.0]
マルチパーティプロトコルの重ね合わせ攻撃を考慮した最初の計算セキュリティモデルを提案する。
我々の新しいセキュリティモデルは、よく知られたOne-Time-Padプロトコルのセキュリティを証明することで満足できることを示す。
重畳攻撃に抵抗するセキュアな2要素計算のための最初の具体的なプロトコルを構築するために,この新たな知識を用いている。
論文 参考訳(メタデータ) (2020-07-01T18:00:54Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。