論文の概要: A Type System to Ensure Non-Interference in ReScript
- arxiv url: http://arxiv.org/abs/2410.18157v1
- Date: Wed, 23 Oct 2024 09:47:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-25 12:48:21.247208
- Title: A Type System to Ensure Non-Interference in ReScript
- Title(参考訳): ReScriptにおける非干渉を保証する型システム
- Authors: Benjamin Bennetzen, Daniel Vang Kleist, Emilie Sonne Steinmann, Loke Walsted, Nikolaj Rossander Kristensen, Peter Buus Steffensen,
- Abstract要約: 本稿では,ReScript構文のサブセットとして,非干渉を強制するために設計された型システムを提案する。
型システムに対する健全性の証明を結論として,式が型許容である場合,本質的に非干渉であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Protecting confidential data from leaking is a critical challenge in computer systems, particularly given the growing number of observers on the internet. Therefore, limiting information flow using robust security policies becomes increasingly vital. We focus on the non-interference policy, where the goal is to ensure that confidential data can not impact public data. This paper presents a type system, for a subset of the ReScript syntax, designed to enforce non-interference. We conclude with a proof of soundness for the type system, demonstrating that if an expression is type-able, it is inherently non-interferent. In addition, we provide a brief overview of a type checker that implements the previously mentioned type system.
- Abstract(参考訳): 機密データを漏洩から守ることは、特にインターネット上の観測者が増えていることを考えると、コンピュータシステムにとって重要な課題である。
そのため,堅牢なセキュリティポリシによる情報フローの制限はますます重要になっている。
我々は、機密データが公開データに影響を与えないようにすることを目標とする非干渉政策に重点を置いている。
本稿では,ReScript構文のサブセットとして,非干渉を強制するために設計された型システムを提案する。
型システムに対する健全性の証明を結論として,式が型許容である場合,本質的に非干渉であることを示す。
さらに,前述した型システムを実装する型チェッカーの概要について概説する。
関連論文リスト
- Privacy Side Channels in Machine Learning Systems [87.53240071195168]
プライバシサイドチャネルは、システムレベルのコンポーネントを利用してプライベート情報を抽出する攻撃である。
例えば、差分プライベートなトレーニングを適用する前にトレーニングデータを重複させることで、保証可能なプライバシ保証を完全に無効にするサイドチャネルが生成されることを示す。
さらに,学習データセットに含まれる秘密鍵を抽出するために,言語モデルを学習データ再生からブロックするシステムを利用することを示す。
論文 参考訳(メタデータ) (2023-09-11T16:49:05Z) - Graded Modal Types for Integrity and Confidentiality [0.25782420501870285]
グレード型システムでは、アノテート型を付加情報で追跡することで、プログラムの異なる特性を追跡できる。
例えば、インフォメーションフロー制御では、型はセキュリティレベルの格子によってグレードされ、非干渉特性が自動的に検証され、強制される。
信頼された出力が信頼できない入力に依存してはならないことを示すプロパティであるIntegrationityは、この文脈では検討されていない。
状況は、線形一意性と型の両方をグレードフレームワークに組み込むという最近の作業と類似しており、このフレーミングを使用して、相互に整合性と機密性の両方を強制できることを示しています。
論文 参考訳(メタデータ) (2023-09-08T13:40:52Z) - SemProtector: A Unified Framework for Semantic Protection in Deep Learning-based Semantic Communication Systems [51.97204522852634]
3つのセマンティック・プロテクション・モジュールを用いたオンラインセマンティック・コミュニケーション・システムの実現を目的とした統合されたフレームワークを提案する。
具体的には、これらの保護モジュールは、暗号化方法によって送信されるセマンティクスを暗号化し、摂動機構によって無線チャネルからのプライバシーリスクを軽減し、目的地で歪んだセマンティクスを校正することができる。
我々のフレームワークは、既存のオンラインSCシステムにおいて、上記3つのプラグイン可能なモジュールを動的に組み立てて、カスタマイズされたセマンティックプロテクション要件を満たすことを可能にする。
論文 参考訳(メタデータ) (2023-09-04T06:34:43Z) - In-Distribution Barrier Functions: Self-Supervised Policy Filters that
Avoid Out-of-Distribution States [84.24300005271185]
本稿では,任意の参照ポリシーをラップした制御フィルタを提案する。
本手法は、トップダウンとエゴセントリックの両方のビュー設定を含むシミュレーション環境における2つの異なるビズモータ制御タスクに有効である。
論文 参考訳(メタデータ) (2023-01-27T22:28:19Z) - Conditional Generative Adversarial Network for keystroke presentation
attack [0.0]
本稿では,キーストローク認証システムへのプレゼンテーションアタックの展開を目的とした新しいアプローチを提案する。
我々の考えは、認証されたユーザを偽装するために使用できる合成キーストロークデータを生成するために、条件付き生成適応ネットワーク(cGAN)を使用することである。
その結果、cGANは、キーストローク認証システムを無効にするために使用できるキーストロークダイナミックスパターンを効果的に生成できることが示唆された。
論文 参考訳(メタデータ) (2022-12-16T12:45:16Z) - Explainable Abuse Detection as Intent Classification and Slot Filling [66.80201541759409]
我々は、システムがデータ検査だけで乱用を構成する事象を確実に学習できるという非現実的な期待を捨て、政策対応による悪用検出の概念を導入する。
目的分類とスロットフィリングのためのアーキテクチャは、モデル決定の根拠を提供しながら、悪用検出にどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-10-06T03:33:30Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z) - Attribute Inference Attack of Speech Emotion Recognition in Federated
Learning Settings [56.93025161787725]
Federated Learning(FL)は、クライアントをコーディネートして、ローカルデータを共有せずにモデルを協調的にトレーニングする分散機械学習パラダイムである。
本稿では,共有勾配やモデルパラメータからクライアントの機密属性情報を推測する属性推論攻撃フレームワークを提案する。
FLを用いて学習したSERシステムに対して,属性推論攻撃が達成可能であることを示す。
論文 参考訳(メタデータ) (2021-12-26T16:50:42Z) - Type Prediction Systems [11.197835323821735]
本稿では,次の2つのタスク,すなわちTypeSuggestモジュールとAnswer Type予測モジュールの型情報予測を目的とした2つのシステムについて述べる。
我々のシステムは任意の大きさの任意の型システムに一般化し、任意の粒度で型情報を抽出する非常に魅力的なソリューションとなる。
論文 参考訳(メタデータ) (2021-04-02T19:16:42Z) - De-Anonymizing Text by Fingerprinting Language Generation [24.09735516192663]
攻撃者が適切なサイドチャネルを介してこれらの指紋を計測することで、タイプテキストを推測する方法を示す。
この攻撃は匿名のテキストを匿名化したり、防衛について議論したりするのに役立ちます。
論文 参考訳(メタデータ) (2020-06-17T02:49:15Z) - Learning With Differential Privacy [3.618133010429131]
異なるプライバシーは、漏洩に対する適切な保護を約束して救助にやってくる。
データの収集時にランダムな応答技術を使用し、より優れたユーティリティで強力なプライバシを保証します。
論文 参考訳(メタデータ) (2020-06-10T02:04:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。