論文の概要: Enforcing MAVLink Safety & Security Properties Via Refined Multiparty Session Types
- arxiv url: http://arxiv.org/abs/2501.18874v2
- Date: Fri, 14 Mar 2025 17:33:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:02:41.385393
- Title: Enforcing MAVLink Safety & Security Properties Via Refined Multiparty Session Types
- Title(参考訳): マルチパーティセッションタイプによるMAVLinkの安全性・セキュリティ特性の強化
- Authors: Arthur Amorim, Max Taylor, Trevor Kann, William L. Harrison, Gary T. Leavens, Lance Joneckis,
- Abstract要約: 妥協されたシステムコンポーネントは、合法的なメッセージシーケンスを発行すると同時に、システム全体を安全でない状態に導くことができる。
メッセージの適切な使用を表現・強制するためのメカニズムとして,改良されたマルチパーティセッションタイプを適用した作業の初期結果を示す。
我々は,UAVで一般的に使用されるMAVLinkプロトコルの安全性とセキュリティの問題を軽減するために,改良されたマルチパーティセッションタイプを使用することにより,我々のアプローチを説明する。
- 参考スコア(独自算出の注目度): 0.11545092788508222
- License:
- Abstract: A compromised system component can issue message sequences that are legal while also leading the overall system into unsafe states. Such stealthy attacks are challenging to characterize, because message interfaces in standard languages specify each individual message separately but do not specify safe sequences of messages. We present initial results from ongoing work applying refined multiparty session types as a mechanism for expressing and enforcing proper message usage to exclude unsafe sequences. We illustrate our approach by using refined multiparty session types to mitigate safety and security issues in the MAVLink protocol commonly used in UAVs.
- Abstract(参考訳): 妥協されたシステムコンポーネントは、合法的なメッセージシーケンスを発行すると同時に、システム全体を安全でない状態に導くことができる。
このようなステルス攻撃は、標準言語のメッセージインターフェースが個々のメッセージを個別に指定するが、安全なメッセージシーケンスを指定しないため、特徴付けが難しい。
安全でないシーケンスを除外するための適切なメッセージ使用を表現・強制するためのメカニズムとして,洗練されたマルチパーティセッションタイプを適用した作業の初期結果を示す。
我々は,UAVで一般的に使用されるMAVLinkプロトコルの安全性とセキュリティの問題を軽減するために,改良されたマルチパーティセッションタイプを使用することにより,我々のアプローチを説明する。
関連論文リスト
- Automating Prompt Leakage Attacks on Large Language Models Using Agentic Approach [9.483655213280738]
本稿では,大規模言語モデル(LLM)の安全性を評価するための新しいアプローチを提案する。
我々は、プロンプトリークをLLMデプロイメントの安全性にとって重要な脅威と定義する。
我々は,協調エージェントが目的のLLMを探索・活用し,そのプロンプトを抽出するマルチエージェントシステムを実装した。
論文 参考訳(メタデータ) (2025-02-18T08:17:32Z) - Context is Key for Agent Security [0.276240219662896]
本稿では,エージェント領域におけるコンテキストセキュリティについて考察する。
それは、ジャスト・イン・タイム、コンテキスト、人間検証可能なセキュリティポリシーを生成するフレームワークであるConsecaを提案する。
論文 参考訳(メタデータ) (2025-01-28T16:55:39Z) - Safeguard is a Double-edged Sword: Denial-of-service Attack on Large Language Models [7.013820690538764]
大規模言語モデル(LLM)に対する新たなDoS攻撃を提案する。
ソフトウェアやフィッシング攻撃によって、攻撃者は短い、一見無害な敵のプロンプトを設定ファイルのユーザープロンプトに挿入する。
我々の攻撃は、Llama Guard 3の97%以上のユーザリクエストを普遍的にブロックする、約30文字の、一見安全な敵のプロンプトを自動的に生成できる。
論文 参考訳(メタデータ) (2024-10-03T19:07:53Z) - Safe-Embed: Unveiling the Safety-Critical Knowledge of Sentence Encoders [5.070104802923903]
UnsafeプロンプトはLarge Language Models (LLM)に重大な脅威をもたらす
本稿では,安全でないプロンプトと区別する文エンコーダの可能性について検討する。
我々は、この能力を測定するために、新しいペアワイズデータセットとカテゴリパーティメトリックを導入します。
論文 参考訳(メタデータ) (2024-07-09T13:35:54Z) - Secure Semantic Communication via Paired Adversarial Residual Networks [59.468221305630784]
本稿では,セキュリティを意識したセマンティック通信システムに対する敵攻撃の正の側面について検討する。
セマンティックトランスミッターの後に、セマンティックレシーバーの前に、一対のプラグイン可能なモジュールがインストールされる。
提案手法は,高品質なセマンティック通信を維持しつつ,盗聴者を騙すことができる。
論文 参考訳(メタデータ) (2024-07-02T08:32:20Z) - AdaShield: Safeguarding Multimodal Large Language Models from Structure-based Attack via Adaptive Shield Prompting [54.931241667414184]
textbfAdaptive textbfShield Promptingを提案する。これは、MLLMを構造ベースのジェイルブレイク攻撃から守るための防御プロンプトで入力をプリペイドする。
我々の手法は、構造に基づくジェイルブレイク攻撃に対するMLLMの堅牢性を一貫して改善することができる。
論文 参考訳(メタデータ) (2024-03-14T15:57:13Z) - Defending Large Language Models against Jailbreak Attacks via Semantic
Smoothing [107.97160023681184]
適応型大規模言語モデル(LLM)は、ジェイルブレイク攻撃に対して脆弱である。
提案するSEMANTICSMOOTHは,与えられた入力プロンプトのセマンティック変換されたコピーの予測を集約するスムージングベースのディフェンスである。
論文 参考訳(メタデータ) (2024-02-25T20:36:03Z) - Query-Based Adversarial Prompt Generation [72.06860443442429]
我々は、アライメント言語モデルが有害な文字列を出力する原因となる敵の例を構築します。
GPT-3.5とOpenAIの安全分類器に対する攻撃を検証する。
論文 参考訳(メタデータ) (2024-02-19T18:01:36Z) - On Prompt-Driven Safeguarding for Large Language Models [172.13943777203377]
表現空間では、入力クエリは通常、安全プロンプトによって「より高い拒絶」方向に移動される。
これらの知見に触発されて,安全性向上,すなわちDROの最適化手法を提案する。
安全性プロンプトを継続的かつトレーニング可能な埋め込みとして扱うことで、DROは、その有害性に応じて、クエリの表現を拒否方向に沿ってあるいは反対に移動させることを学ぶ。
論文 参考訳(メタデータ) (2024-01-31T17:28:24Z) - Certifying LLM Safety against Adversarial Prompting [70.96868018621167]
大規模言語モデル(LLM)は、入力プロンプトに悪意のあるトークンを追加する敵攻撃に対して脆弱である。
我々は,認証された安全保証とともに,敵のプロンプトを防御する最初の枠組みである消去・チェックを導入する。
論文 参考訳(メタデータ) (2023-09-06T04:37:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。