論文の概要: Security Properties through the Lens of Modal Logic
- arxiv url: http://arxiv.org/abs/2309.09542v1
- Date: Mon, 18 Sep 2023 07:37:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 04:30:16.310872
- Title: Security Properties through the Lens of Modal Logic
- Title(参考訳): モーダル論理のレンズによるセキュリティ特性
- Authors: Matvey Soloviev, Musard Balliu, Roberto Guanciale,
- Abstract要約: モーダル論理を用いたコンピュータシステムのセキュリティに関する推論フレームワークを提案する。
機密性、完全性、堅牢な非分類化、透過的な支持の様々なバリエーションを表現するために、フォーマリズムをどのように使うかを示します。
- 参考スコア(独自算出の注目度): 4.548429316641551
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a framework for reasoning about the security of computer systems using modal logic. This framework is sufficiently expressive to capture a variety of known security properties, while also being intuitive and independent of syntactic details and enforcement mechanisms. We show how to use our formalism to represent various progress- and termination-(in)sensitive variants of confidentiality, integrity, robust declassification and transparent endorsement, and prove equivalence to standard definitions. The intuitive nature and closeness to semantic reality of our approach allows us to make explicit several hidden assumptions of these definitions, and identify potential issues and subtleties with them, while also holding the promise of formulating cleaner versions and future extension to entirely novel properties.
- Abstract(参考訳): モーダル論理を用いたコンピュータシステムのセキュリティに関する推論フレームワークを提案する。
このフレームワークは、様々な既知のセキュリティ特性を捉えるのに十分な表現力を持ち、直感的で、構文の詳細や執行機構とは独立している。
我々は, 機密性, 完全性, 堅牢な非分類化, 透過的な支持の様々な変種を表現するために, フォーマリズムをどう使うかを示し, 標準定義と等価性を証明した。
このアプローチのセマンティックリアリティーに対する直感的な性質と密接性により、これらの定義のいくつかの隠された仮定を明確化し、潜在的な問題や微妙な関係を特定できると同時に、よりクリーンなバージョンと、完全に新しい性質への将来の拡張を約束できる。
関連論文リスト
- Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - DePrompt: Desensitization and Evaluation of Personal Identifiable Information in Large Language Model Prompts [11.883785681042593]
DePromptは、プロンプトのための脱感作保護および有効性評価フレームワークである。
我々は、コンテキスト属性を統合し、プライバシタイプを定義し、高精度なPIIエンティティ識別を実現する。
私たちのフレームワークはプロンプトに適応可能で、テキストのユーザビリティに依存したシナリオに拡張できます。
論文 参考訳(メタデータ) (2024-08-16T02:38:25Z) - A Model-oriented Reasoning Framework for Privacy Analysis of Complex Systems [2.001711587270359]
本稿では,システムとその環境のプライバシ特性に関する推論フレームワークを提案する。
異なる論理レベルの知識リークをキャプチャして、質問に答えることができます。
論文 参考訳(メタデータ) (2024-05-14T06:52:56Z) - On Cryptographic Mechanisms for the Selective Disclosure of Verifiable Credentials [39.4080639822574]
認証資格は、物理的資格のデジタルアナログである。
検証者に提示して属性を明らかにしたり、クレデンシャルに含まれる属性を述語することも可能だ。
プレゼンテーション中にプライバシを保存する1つの方法は、クレデンシャル内の属性を選択的に開示することである。
論文 参考訳(メタデータ) (2024-01-16T08:22:28Z) - An Encoding of Abstract Dialectical Frameworks into Higher-Order Logic [57.24311218570012]
このアプローチは抽象弁証法フレームワークのコンピュータ支援分析を可能にする。
応用例としては、メタ理論的性質の形式的解析と検証がある。
論文 参考訳(メタデータ) (2023-12-08T09:32:26Z) - ASSERT: Automated Safety Scenario Red Teaming for Evaluating the
Robustness of Large Language Models [65.79770974145983]
ASSERT、Automated Safety Scenario Red Teamingは、セマンティックなアグリゲーション、ターゲットブートストラップ、敵の知識注入という3つの方法で構成されている。
このプロンプトを4つの安全領域に分割し、ドメインがモデルの性能にどのように影響するかを詳細に分析する。
統計的に有意な性能差は, 意味的関連シナリオにおける絶対分類精度が最大11%, ゼロショット逆数設定では最大19%の絶対誤差率であることがわかった。
論文 参考訳(メタデータ) (2023-10-14T17:10:28Z) - Graded Modal Types for Integrity and Confidentiality [0.25782420501870285]
グレード型システムでは、アノテート型を付加情報で追跡することで、プログラムの異なる特性を追跡できる。
例えば、インフォメーションフロー制御では、型はセキュリティレベルの格子によってグレードされ、非干渉特性が自動的に検証され、強制される。
信頼された出力が信頼できない入力に依存してはならないことを示すプロパティであるIntegrationityは、この文脈では検討されていない。
状況は、線形一意性と型の両方をグレードフレームワークに組み込むという最近の作業と類似しており、このフレーミングを使用して、相互に整合性と機密性の両方を強制できることを示しています。
論文 参考訳(メタデータ) (2023-09-08T13:40:52Z) - A Semantic Approach to Decidability in Epistemic Planning (Extended
Version) [72.77805489645604]
我々は決定可能性を達成するために新しい意味論的アプローチを用いる。
具体的には、知識の論理S5$_n$と(知識)可換性と呼ばれる相互作用公理を拡大する。
我々は,本フレームワークが,独立した知識である共通知識の有限的非固定点的特徴を認めていることを証明した。
論文 参考訳(メタデータ) (2023-07-28T11:26:26Z) - (Un)reasonable Allure of Ante-hoc Interpretability for High-stakes
Domains: Transparency Is Necessary but Insufficient for Comprehensibility [25.542848590851758]
アンテホック解釈能力は、医療などの高度な領域において、説明可能な人工知能の聖杯となっている。
構造がドメイン固有の制約に従属する予測モデルや、本質的に透明なモデルを指すこともある。
私たちはこの概念を解き放ち、高い領域にまたがる安全な採用に必要なものをよりよく理解します。
論文 参考訳(メタデータ) (2023-06-04T09:34:41Z) - A Style and Semantic Memory Mechanism for Domain Generalization [108.98041306507372]
ドメイン内スタイルの不変性は、ドメインの一般化の効率を改善する上で重要な要素である。
本稿では,ドメイン間の意味的特徴の共通性を学習する上で特に有効な,新しい「判断」機構を提案する。
提案手法は最先端の手法をクリアマージンで超越している。
論文 参考訳(メタデータ) (2021-12-14T16:23:24Z) - A general framework for defining and optimizing robustness [74.67016173858497]
分類器の様々な種類の堅牢性を定義するための厳密でフレキシブルなフレームワークを提案する。
我々の概念は、分類器の堅牢性は正確性とは無関係な性質と考えるべきであるという仮定に基づいている。
我々は,任意の分類モデルに適用可能な,非常に一般的なロバスト性フレームワークを開発する。
論文 参考訳(メタデータ) (2020-06-19T13:24:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。