論文の概要: Nonmalleable Progress Leakage
- arxiv url: http://arxiv.org/abs/2505.12210v1
- Date: Sun, 18 May 2025 03:02:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.09485
- Title: Nonmalleable Progress Leakage
- Title(参考訳): 非有毒プログレッシブリーク
- Authors: Ethan Cecchetti,
- Abstract要約: この作業は、進捗に敏感なセキュリティのためのアイデアとセキュアなダウングレーディングを組み合わせることで、セキュアなダウングレーディングプログレス情報の概念を識別する。
我々は,NMPL を強制しながら,いくつかの進行漏れを許容する最初の情報フロー型システムを提案する。
- 参考スコア(独自算出の注目度): 1.30536490219656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Information-flow control systems often enforce progress-insensitive noninterference, as it is simple to understand and enforce. Unfortunately, real programs need to declassify results and endorse inputs, which noninterference disallows, while preventing attackers from controlling leakage, including through progress channels, which progress-insensitivity ignores. This work combines ideas for progress-sensitive security with secure downgrading (declassification and endorsement) to identify a notion of securely downgrading progress information. We use hyperproperties to distill the separation between progress-sensitive and progress-insensitive noninterference and combine it with nonmalleable information flow, an existing (progress-insensitive) definition of secure downgrading, to define nonmalleable progress leakage (NMPL). We present the first information-flow type system to allow some progress leakage while enforcing NMPL, and we show how to infer the location of secure progress downgrades. All theorems are verified in Rocq.
- Abstract(参考訳): 情報フロー制御システムは、理解し、強制することが簡単であるため、プログレッシブ非干渉を強制することが多い。
残念なことに、実際のプログラムは結果の分類を外し、非干渉が許容するインプットを許容すると同時に、プログレス・インセンティブが無視するプログレス・チャンネルを含む漏洩を攻撃者が制御するのを防ぐ必要がある。
この作業は、進捗に敏感なセキュリティのためのアイデアと、セキュアなダウングレーディング(非クラス化と支持)を組み合わせることで、安全なダウングレーディングの進捗情報の概念を識別する。
提案手法は,非可逆性情報流と非可逆性情報流の分離を抽出し,非可逆性進行リーク(NMPL)を定義するために,高可逆性を用いる。
我々は,NMPL を強制する際の進捗リークを許容する最初の情報フロー型システムを提案し,セキュアな進行ダウングレードの位置を推定する方法を示す。
すべての定理は Rocq で検証される。
関連論文リスト
- SecCodePRM: A Process Reward Model for Code Security [18.20834502693226]
SecCodePRMは、コンテキスト対応のステップレベルのセキュリティスコアをコード軌道に沿って割り当てるプロセス報酬モデルである。
フルコード脆弱性検出(VD)、部分コードVD、セキュアコード生成(CG)の3つのアプリケーションがある。
論文 参考訳(メタデータ) (2026-02-11T02:00:19Z) - When Benign Inputs Lead to Severe Harms: Eliciting Unsafe Unintended Behaviors of Computer-Use Agents [90.05202259420138]
意図しないコンピュータ利用エージェントは、良質な入力コンテキストの下でも期待された結果から逸脱することができる。
意図しないCUA行動に対する最初の概念的および方法論的枠組みを紹介する。
本稿では,CUA実行フィードバックを用いた命令を反復的に摂動するエージェントフレームワークであるAutoElicitを提案する。
論文 参考訳(メタデータ) (2026-02-09T03:20:11Z) - SafeRedir: Prompt Embedding Redirection for Robust Unlearning in Image Generation Models [67.84174763413178]
我々はSafeRedirを紹介した。SafeRedirは、迅速な埋め込みリダイレクトによる堅牢なアンラーニングのための軽量な推論時フレームワークである。
SafeRedirは,効果的な非学習能力,意味的・知覚的保存能力,堅牢な画像品質,対人攻撃に対する耐性の向上を実現している。
論文 参考訳(メタデータ) (2026-01-13T15:01:38Z) - Overcoming Joint Intractability with Lossless Hierarchical Speculative Decoding [58.92526489742584]
我々は無益な無益な提案をする。
承認されたトークンの数を大幅に増加させる検証方法。
HSDは様々なモデルファミリやベンチマークの受け入れ率に一貫した改善をもたらすことを示す。
論文 参考訳(メタデータ) (2026-01-09T11:10:29Z) - MAIF: Enforcing AI Trust and Provenance with an Artifact-Centric Agentic Paradigm [0.5495755145898128]
現在のAIシステムは、監査証跡、証明追跡、EU AI Actのような新たな規則で要求される説明可能性に欠ける不透明なデータ構造で運用されている。
動作は一時的なタスクではなく、永続的で検証可能なデータアーティファクトによって駆動される、アーティファクト中心のAIエージェントパラダイムを提案する。
プロダクション対応実装では、超高速ストリーミング(2,720.7MB/s)、最適化されたビデオ処理(1,342MB/s)、エンタープライズレベルのセキュリティが示されている。
論文 参考訳(メタデータ) (2025-11-19T04:10:32Z) - Soft Instruction De-escalation Defense [36.36851291734834]
大規模言語モデル(LLM)は、ますます外部環境と相互作用するエージェントシステムにデプロイされている。
これにより、信頼できないデータを扱う際に、インジェクションをインジェクションすることが可能になる。
ツール拡張LDMエージェント用に設計された簡易かつ効果的な反復的プロンプト衛生ループSICを提案する。
論文 参考訳(メタデータ) (2025-10-24T00:04:07Z) - Secure Tug-of-War (SecTOW): Iterative Defense-Attack Training with Reinforcement Learning for Multimodal Model Security [63.41350337821108]
マルチモーダル大規模言語モデル(MLLM)のセキュリティを高めるために,Secure Tug-of-War(SecTOW)を提案する。
SecTOWは2つのモジュールで構成される:ディフェンダーと補助攻撃者。どちらも強化学習(GRPO)を使用して反復的に訓練される。
SecTOWは、一般的な性能を維持しながら、セキュリティを大幅に改善することを示す。
論文 参考訳(メタデータ) (2025-07-29T17:39:48Z) - DRIFT: Dynamic Rule-Based Defense with Injection Isolation for Securing LLM Agents [52.92354372596197]
大規模言語モデル(LLM)は、強力な推論と計画能力のため、エージェントシステムの中心となってきています。
この相互作用は、外部ソースからの悪意のある入力がエージェントの振る舞いを誤解させる可能性がある、インジェクション攻撃のリスクも引き起こす。
本稿では,信頼に値するエージェントシステムのための動的ルールベースの分離フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T05:01:09Z) - Advancing Neural Network Verification through Hierarchical Safety Abstract Interpretation [52.626086874715284]
我々は、安全でない出力の階層構造を検証する抽象的DNN検証と呼ばれる新しい問題定式化を導入する。
出力到達可能な集合に関する抽象的解釈と推論を活用することにより,形式的検証プロセスにおいて,複数の安全性レベルを評価することができる。
我々の貢献には、新しい抽象的安全性の定式化と既存のアプローチとの関係を理論的に探求することが含まれる。
論文 参考訳(メタデータ) (2025-05-08T13:29:46Z) - Enhancing Cloud Security through Topic Modelling [0.6117371161379209]
本研究では,NLP(Natural Language Processing)技術を用いて,セキュリティ関連テキストデータを解析し,潜在的な脅威を予測している。
本稿では,LDA(Latent Dirichlet Allocation)とPLSA(Probabilistic Latent Semantic Analysis)に着目し,データソースから意味のあるパターンを抽出する。
論文 参考訳(メタデータ) (2025-05-01T19:17:20Z) - Do We Really Need Curated Malicious Data for Safety Alignment in Multi-modal Large Language Models? [83.53005932513155]
MLLM(Multi-modal large language model)は大きな進歩を遂げているが、その安全性は依然として限られている。
そこで我々は, 単純明快な拒絶文に代えて, 少数の良性命令追従データに対して, MLLMを微調整する手法を提案する。
論文 参考訳(メタデータ) (2025-04-14T09:03:51Z) - ZeroFlow: Overcoming Catastrophic Forgetting is Easier than You Think [22.333776599402754]
我々はZeroFlowの最初のベンチマークを導入し、勾配のない最適化アルゴリズムを評価し、忘れを克服する。
このベンチマークでは、複数のメソッドをまたいだフォワードパスメソッドのスイートを調べ、シナリオやデータセットを忘れる。
フォワードパスだけでは、忘れを乗り越えるには十分です。
論文 参考訳(メタデータ) (2025-01-02T04:10:17Z) - Rethinking PGD Attack: Is Sign Function Necessary? [131.6894310945647]
本稿では,このような手話に基づく更新アルゴリズムが段階的攻撃性能にどのように影響するかを理論的に分析する。
本稿では,手話の使用を排除したRGDアルゴリズムを提案する。
提案したRGDアルゴリズムの有効性は実験で広く実証されている。
論文 参考訳(メタデータ) (2023-12-03T02:26:58Z) - Just-in-Time Detection of Silent Security Patches [7.840762542485285]
セキュリティパッチは黙秘される可能性がある。つまり、CVEのような包括的なアドバイザリを常に備えているわけではない。
この透明性の欠如により、ユーザーは利用可能なセキュリティアップデートを気にせず、攻撃者が未パッチの脆弱性を悪用する十分な機会を提供する。
本稿では,大規模言語モデル(LLM)を活用して,生成されたコード変更説明を用いてパッチ情報を拡張することを提案する。
論文 参考訳(メタデータ) (2023-12-02T22:53:26Z) - Segue: Side-information Guided Generative Unlearnable Examples for
Facial Privacy Protection in Real World [64.4289385463226]
生成不可能な例としては、Segue: Side-information guided Generative unlearnable Exampleを提案する。
転送性を向上させるために,真のラベルや擬似ラベルなどの側面情報を導入する。
JPEG圧縮、敵対的トレーニング、およびいくつかの標準的なデータ拡張に抵抗することができる。
論文 参考訳(メタデータ) (2023-10-24T06:22:37Z) - OblivIO: Securing reactive programs by oblivious execution with bounded traffic overheads [0.0]
トラフィック分析攻撃は、オンラインセキュリティにとって重要な問題である。
オンラインサービスが暗号化トラフィックをますます利用しているにもかかわらず、トラフィックの形状は隠されていない。
OblivIOは、ネットワークイベントによって駆動されるリアクティブプログラムを書くためのセキュアな言語である。
論文 参考訳(メタデータ) (2023-01-19T15:59:33Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - Scalable Synthesis of Verified Controllers in Deep Reinforcement
Learning [0.0]
高品質の安全シールドを合成できる自動検証パイプラインを提案します。
私たちの重要な洞察は、事前に計算された安全シールドを使用して神経コントローラのトレーニングを制限し、神経コントローラから安全検証を分離することを含みます。
実測的な高次元深部RLベンチマークによる実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2021-04-20T19:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。