論文の概要: Adopting the Actor Model for Antifragile Serverless Architectures
- arxiv url: http://arxiv.org/abs/2306.14738v1
- Date: Mon, 26 Jun 2023 14:49:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 18:55:25.474414
- Title: Adopting the Actor Model for Antifragile Serverless Architectures
- Title(参考訳): 反脆弱なサーバレスアーキテクチャにアクタモデルを採用する
- Authors: Marcel Mraz, Hind Bangui, Bruno Rossi, Barbora Buhnova
- Abstract要約: 反脆弱性(英語: antifragility)とは、ソフトウェアシステムが障害のような持続的な有害事象に基づいて、時間とともに学習し、改善することに焦点を当てた概念である。
本稿では、サーバーレスシステムにおける監視戦略の導入を支援するための新しい考え方を提案する。
- 参考スコア(独自算出の注目度): 2.602613712854636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Antifragility is a novel concept focusing on letting software systems learn
and improve over time based on sustained adverse events such as failures. The
actor model has been proposed to deal with concurrent computation and has
recently been adopted in several serverless platforms. In this paper, we
propose a new idea for supporting the adoption of supervision strategies in
serverless systems to improve the antifragility properties of such systems. We
define a predictive strategy based on the concept of stressors (e.g., injecting
failures), in which actors or a hierarchy of actors can be impacted and
analyzed for systems' improvement. The proposed solution can improve the
system's resiliency in exchange for higher complexity but goes in the direction
of building antifragile systems.
- Abstract(参考訳): 反脆弱性(antifragility)は、ソフトウェアシステムが障害のような持続的な有害事象に基づいて、時間とともに学び、改善することに焦点を当てた、新しい概念である。
アクターモデルは並列計算を扱うために提案され、最近では複数のサーバレスプラットフォームで採用されている。
本稿では,サーバーレスシステムにおける監視戦略の導入を支援するための新しい考え方を提案する。
本研究では,システム改善のためにアクターやアクターの階層に影響を及ぼし分析できるストレス要因(例えば,障害を注入するなど)の概念に基づく予測戦略を定義する。
提案手法は,複雑性の増大と引き換えにシステムのレジリエンスを向上するが,反フランジシステム構築の方向に進む。
関連論文リスト
- Collision Avoidance Verification of Multiagent Systems with Learned
Policies [10.733918424740693]
本稿では,Multi-Agent Neural Feedback Loops (MA-NFLs) の衝突回避特性を検証するための後方到達性に基づくアプローチを提案する。
提案アルゴリズムは,各エージェントの動的モデルと訓練された制御ポリシを考慮し,各エージェントに対して一連の混合線形プログラム(MILP)をオフラインで解くことで,相対的なバックプロジェクションセットを計算する。
提案アルゴリズムは,MA-NFLの衝突回避アルゴリズムを模倣するエージェントを用いて,衝突回避特性を検証できることを示す。
論文 参考訳(メタデータ) (2024-03-05T20:36:26Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Coach-assisted Multi-Agent Reinforcement Learning Framework for
Unexpected Crashed Agents [120.91291581594773]
本稿では,予期せぬクラッシュを伴う協調型マルチエージェント強化学習システムの公式な定式化について述べる。
本稿では,教師支援型多エージェント強化学習フレームワークを提案する。
私たちの知る限りでは、この研究はマルチエージェントシステムにおける予期せぬクラッシュを初めて研究したものです。
論文 参考訳(メタデータ) (2022-03-16T08:22:45Z) - An Intrusion Response System utilizing Deep Q-Networks and System
Partitions [0.415623340386296]
irs-partitionというIRSソフトウェアプロトタイプを導入・開発する。
非定常系の進化に追従するために移動学習を利用する。
論文 参考訳(メタデータ) (2022-02-16T16:38:20Z) - A Novel Online Incremental Learning Intrusion Prevention System [2.5234156040689237]
本稿では,自己組織型インクリメンタルニューラルネットワークとサポートベクトルマシンを併用したネットワーク侵入防止システムを提案する。
提案システムは,その構造上,シグネチャやルールに依存しないセキュリティソリューションを提供するとともに,既知の攻撃や未知の攻撃を高精度にリアルタイムに軽減することができる。
論文 参考訳(メタデータ) (2021-09-20T13:30:11Z) - Efficient Attention Branch Network with Combined Loss Function for
Automatic Speaker Verification Spoof Detection [7.219077740523682]
自動話者検証(Automatic Speaker Verification)のタスクのために現在デプロイされているモデルは、その最善は、目に見えない攻撃に対して適切な一般化の度合いを欠いていることである。
本研究では、一般化問題に対処するために、損失関数を組み合わせた効率的な注意分岐ネットワーク(EABN)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-09-05T12:10:16Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - System Component-Level Self-Adaptations for Security via Bayesian Games [0.676855875213031]
セキュリティ攻撃は、自己適応型システム設計に特有の課題をもたらす。
本稿では,ベイズゲームとディフェンダー(システム)をシステムアーキテクチャのコンポーネントの粒度でモデル化した,新たな自己適応型フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T16:20:59Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Covert Model Poisoning Against Federated Learning: Algorithm Design and
Optimization [76.51980153902774]
フェデレーテッド・ラーニング(FL)はパラメータ伝達中にFLモデルに対する外部攻撃に対して脆弱である。
本稿では,最先端の防御アグリゲーション機構に対処する有効なMPアルゴリズムを提案する。
実験の結果,提案したCMPアルゴリズムは,既存の攻撃機構よりも効果的で,かなり優れていることが示された。
論文 参考訳(メタデータ) (2021-01-28T03:28:18Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。