論文の概要: Model Checking Strategic Abilities in Information-sharing Systems
- arxiv url: http://arxiv.org/abs/2204.08896v1
- Date: Tue, 19 Apr 2022 13:47:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-20 14:45:40.410003
- Title: Model Checking Strategic Abilities in Information-sharing Systems
- Title(参考訳): 情報共有システムにおけるモデルチェック戦略能力
- Authors: Francesco Belardinelli, Ioana Boureanu, Catalin Dima, and Vadim
Malvone
- Abstract要約: 不完全な情報を持つ並列ゲーム構造のサブクラスを導入する。
これらのCGSを、関連するATLのフラグメントに対してモデルチェックすることは、依然として決定可能である。
- 参考スコア(独自算出の注目度): 9.416401293559113
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a subclass of concurrent game structures (CGS) with imperfect
information in which agents are endowed with private data-sharing capabilities.
Importantly, our CGSs are such that it is still decidable to model-check these
CGSs against a relevant fragment of ATL. These systems can be thought as a
generalisation of architectures allowing information forks, in the sense that,
in the initial states of the system, we allow information forks from agents
outside a given set A to agents inside this A. For this reason, together with
the fact that the communication in our models underpins a specialised form of
broadcast, we call our formalism A-cast systems. To underline, the fragment of
ATL for which we show the model-checking problem to be decidable over A-cast is
a large and significant one; it expresses coalitions over agents in any subset
of the set A. Indeed, as we show, our systems and this ATL fragments can encode
security problems that are notoriously hard to express faithfully:
terrorist-fraud attacks in identity schemes.
- Abstract(参考訳): エージェントにプライベートなデータ共有機能を持たせる不完全な情報を持つ並列ゲーム構造(CGS)のサブクラスを導入する。
重要なことは、我々のCGSは、これらのCGSを関連するATLのフラグメントに対してモデルチェックすることが決定可能であることです。
これらのシステムは、システムの初期状態において、与えられたセットa外のエージェントからの情報フォークを、このa内のエージェントに許可するという意味で、情報フォークを可能にするアーキテクチャの一般化と考えることができる。
実際、我々のシステムとATLのフラグメントは、我々のシステムやこのATLのフラグメントは、信頼できる表現が難しいセキュリティ問題をエンコードすることができる:アイデンティティスキームにおけるテロリスト詐欺。
関連論文リスト
- "Glue pizza and eat rocks" -- Exploiting Vulnerabilities in Retrieval-Augmented Generative Models [74.05368440735468]
Retrieval-Augmented Generative (RAG)モデルにより大規模言語モデル(LLM)が強化される
本稿では,これらの知識基盤の開放性を敵が活用できるセキュリティ上の脅威を示す。
論文 参考訳(メタデータ) (2024-06-26T05:36:23Z) - A Dual-Tier Adaptive One-Class Classification IDS for Emerging Cyberthreats [3.560574387648533]
2層構造を有する一級分類駆動型IDSシステムを提案する。
第1層は通常の活動と攻撃/脅威を区別し、第2層は検出された攻撃が未知であるかを判定する。
このモデルは、目に見えない攻撃を識別するだけでなく、目に見えない攻撃をクラスタリングすることでそれらを再トレーニングするために使用する。
論文 参考訳(メタデータ) (2024-03-17T12:26:30Z) - Whispers in the Machine: Confidentiality in LLM-integrated Systems [7.893457690926516]
大規模言語モデル(LLM)は、外部ツールや商用サービスをLLM統合システムに拡張する傾向にある。
操作された統合はモデルを悪用し、他のインターフェースを通じてアクセスされた機密データを侵害することができる。
LLM統合システムにおける機密性リスクを評価するための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2024-02-10T11:07:24Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - A Modular and Adaptive System for Business Email Compromise Detection [0.7490096698922335]
Business Email Compromise (BEC) とスピアフィッシング攻撃は、世界中の組織にとって大きな課題となっている。
機械学習の最近の進歩、特に自然言語理解(NLU)は、そのような攻撃に対抗するための有望な道を提供する。
生産環境下で2年以上にわたって実証されてきた総合的かつ効率的なBEC検出システムCAPEについて述べる。
論文 参考訳(メタデータ) (2023-08-21T15:06:02Z) - Analyzing Complex Systems with Cascades Using Continuous-Time Bayesian
Networks [42.88667535189424]
本研究では,複雑なシステムのカスケード挙動を解析するための連続時間ベイズネットワーク(CTBN)に基づくモデリングフレームワークを提案する。
イベントがシステムを介してどのように伝播するかを記述し、想定される感覚状態、すなわち、差し迫ったカスケード行動を引き起こす可能性のあるシステム状態を特定する。
論文 参考訳(メタデータ) (2023-08-21T10:06:15Z) - ThreatKG: An AI-Powered System for Automated Open-Source Cyber Threat Intelligence Gathering and Management [65.0114141380651]
ThreatKGはOSCTIの収集と管理のための自動化システムである。
複数のソースから多数のOSCTIレポートを効率的に収集する。
さまざまな脅威エンティティに関する高品質な知識を抽出するために、AIベースの専門技術を使用する。
論文 参考訳(メタデータ) (2022-12-20T16:13:59Z) - Explainable Intrusion Detection Systems (X-IDS): A Survey of Current
Methods, Challenges, and Opportunities [0.0]
侵入検知システム(IDS)は、大量のデータを高い予測精度で処理できるため、広く採用されている。
深層学習(DL)技術を用いて設計されたIDSは、ブラックボックスモデルとして扱われることが多く、予測の正当化は提供されない。
この調査では、IDSの最先端AI(XAI)とその現在の課題についてレビューし、これらの課題がX-IDSの設計にどのように当てはまるかを論じる。
論文 参考訳(メタデータ) (2022-07-13T14:31:46Z) - Causal Scene BERT: Improving object detection by searching for
challenging groups of data [125.40669814080047]
コンピュータビジョンアプリケーションは、物体検出のようなタスクのためにニューラルネットワークでパラメータ化された学習ベースの知覚モジュールに依存している。
これらのモジュールは、トレーニングプロセスに固有のバイアスのため、予想される誤差が低いが、データの非定型的なグループに対して高い誤差を持つことが多い。
本研究の主な貢献は,シミュレートされたシーンに対して因果的介入を行うことにより,前向きにそのようなグループを発見する擬似オートマチック手法である。
論文 参考訳(メタデータ) (2022-02-08T05:14:16Z) - Attribute Inference Attack of Speech Emotion Recognition in Federated
Learning Settings [56.93025161787725]
Federated Learning(FL)は、クライアントをコーディネートして、ローカルデータを共有せずにモデルを協調的にトレーニングする分散機械学習パラダイムである。
本稿では,共有勾配やモデルパラメータからクライアントの機密属性情報を推測する属性推論攻撃フレームワークを提案する。
FLを用いて学習したSERシステムに対して,属性推論攻撃が達成可能であることを示す。
論文 参考訳(メタデータ) (2021-12-26T16:50:42Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。