論文の概要: Informed and Assessable Observability Design Decisions in Cloud-native
Microservice Applications
- arxiv url: http://arxiv.org/abs/2403.00633v1
- Date: Fri, 1 Mar 2024 16:12:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 16:57:08.588804
- Title: Informed and Assessable Observability Design Decisions in Cloud-native
Microservice Applications
- Title(参考訳): クラウドネイティブマイクロサービスアプリケーションにおけるインフォームドで評価可能な可観測性設計決定
- Authors: Maria C. Borges, Joshua Bauer, Sebastian Werner, Michael Gebauer,
Stefan Tai
- Abstract要約: マイクロサービスアプリケーションの信頼性を確保するためには、可観測性が重要です。
アーキテクトは、観測可能性に関するトレードオフを理解して、異なる観測可能性設計の選択肢を重んじる必要がある。
我々は、情報的かつ継続的に評価可能な可観測性設計決定に到達するための体系的な方法について議論する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Observability is important to ensure the reliability of microservice
applications. These applications are often prone to failures, since they have
many independent services deployed on heterogeneous environments. When employed
"correctly", observability can help developers identify and troubleshoot faults
quickly. However, instrumenting and configuring the observability of a
microservice application is not trivial but tool-dependent and tied to costs.
Architects need to understand observability-related trade-offs in order to
weigh between different observability design alternatives. Still, these
architectural design decisions are not supported by systematic methods and
typically just rely on "professional intuition". In this paper, we argue for a
systematic method to arrive at informed and continuously assessable
observability design decisions. Specifically, we focus on fault observability
of cloud-native microservice applications, and turn this into a testable and
quantifiable property. Towards our goal, we first model the scale and scope of
observability design decisions across the cloud-native stack. Then, we propose
observability metrics which can be determined for any microservice application
through so-called observability experiments. We present a proof-of-concept
implementation of our experiment tool OXN. OXN is able to inject arbitrary
faults into an application, similar to Chaos Engineering, but also possesses
the unique capability to modify the observability configuration, allowing for
the assessment of design decisions that were previously left unexplored. We
demonstrate our approach using a popular open source microservice application
and show the trade-offs involved in different observability design decisions.
- Abstract(参考訳): 可観測性は、マイクロサービスアプリケーションの信頼性を確保する上で重要である。
これらのアプリケーションは、異種環境にデプロイされる多くの独立したサービスがあるため、しばしば障害を起こしやすい。
正しく"採用された場合、オブザーバビリティは、開発者が迅速に障害を特定し、トラブルシュートするのに役立つ。
しかしながら、マイクロサービスアプリケーションの可観測性の測定と設定は簡単ではなく、ツールに依存し、コストに結びついている。
アーキテクトは、異なる可観測性設計の選択肢を重ねるには、可観測性に関連したトレードオフを理解する必要がある。
それでも、これらのアーキテクチャ設計決定は体系的な手法ではサポートされず、通常単に「専門的な直観」に依存している。
本稿では,情報的かつ継続的な可観測性設計決定を行うための体系的手法について議論する。
具体的には、クラウドネイティブなマイクロサービスアプリケーションのフォールトオブザーバビリティに注目して、これをテスト可能な定量化可能なプロパティにします。
目標に向かって、私たちはまず、クラウドネイティブスタック全体の可観測性設計決定の規模とスコープをモデル化します。
次に、いわゆる可観測性実験を通じて、マイクロサービスアプリケーションで決定できる可観測性メトリクスを提案する。
実験ツールOXNの概念実証実装について述べる。
OXNはChaos Engineeringに似た任意のフォールトをアプリケーションに注入することができるが、可観測性の設定を変更するユニークな機能を備えており、以前は探索されていなかった設計上の決定を評価できる。
一般的なオープンソースのマイクロサービスアプリケーションを使って、私たちのアプローチを実演し、さまざまな可観測性設計決定に関わるトレードオフを示しています。
関連論文リスト
- Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - Discovering Decision Manifolds to Assure Trusted Autonomous Systems [0.0]
本稿では,システムが提示できる正誤応答の範囲を最適化した探索手法を提案する。
この多様体は、従来のテストやモンテカルロシミュレーションよりもシステムの信頼性をより詳細に理解する。
この概念実証では,本手法を自動運転車のループ内ソフトウェア評価に適用する。
論文 参考訳(メタデータ) (2024-02-12T16:55:58Z) - Robots That Ask For Help: Uncertainty Alignment for Large Language Model
Planners [85.03486419424647]
KnowNoは、大きな言語モデルの不確実性を測定し、調整するためのフレームワークである。
KnowNoは、タスク完了に関する統計的保証を提供する共形予測理論に基づいている。
論文 参考訳(メタデータ) (2023-07-04T21:25:12Z) - Design Space Exploration and Explanation via Conditional Variational
Autoencoders in Meta-model-based Conceptual Design of Pedestrian Bridges [52.77024349608834]
本稿では,条件付き変分オートエンコーダ(CVAE)による人間設計者向上のための性能駆動型設計探索フレームワークを提案する。
CVAEはスイスの歩行者橋の合成例18万件で訓練されている。
論文 参考訳(メタデータ) (2022-11-29T17:28:31Z) - Information-Theoretic Odometry Learning [83.36195426897768]
生体計測推定を目的とした学習動機付け手法のための統合情報理論フレームワークを提案する。
提案フレームワークは情報理論言語の性能評価と理解のためのエレガントなツールを提供する。
論文 参考訳(メタデータ) (2022-03-11T02:37:35Z) - A Conceptual Framework for Establishing Trust in Real World Intelligent
Systems [0.0]
アルゴリズムの信頼は、ユーザーがシステムと対話できるようにすることで確立できます。
アルゴリズム結果に対するドメインの人間の理解の特徴とパターンを反映することで、そのようなパターンに対する認識を生み出すことができる。
閉じた検査を使用して、ソリューションが期待に合致するかどうか、または期待を超えるかどうかを判断できます。
論文 参考訳(メタデータ) (2021-04-12T12:58:47Z) - CoreDiag: Eliminating Redundancy in Constraint Sets [68.8204255655161]
最小コア(最小非冗長制約集合)の決定に利用できる新しいアルゴリズムを提案する。
このアルゴリズムは、冗長性の度合いが高い分散知識工学シナリオにおいて特に有用である。
本手法の適用可能性を示すために, 商業的構成知識ベースを用いた実証的研究を実施した。
論文 参考訳(メタデータ) (2021-02-24T09:16:10Z) - Approaching Neural Network Uncertainty Realism [53.308409014122816]
自動運転車などの安全クリティカルなシステムには、定量化または少なくとも上限の不確実性が不可欠です。
マハラノビス距離に基づく統計的テストにより、厳しい品質基準である不確実性リアリズムを評価します。
自動車分野に採用し、プレーンエンコーダデコーダモデルと比較して、不確実性リアリズムを大幅に改善することを示した。
論文 参考訳(メタデータ) (2021-01-08T11:56:12Z) - Threshy: Supporting Safe Usage of Intelligent Web Services [4.346610687701405]
Threshyは開発者が問題領域に適した決定しきい値を選択するのを助けるツールである。
既存のツールとは異なり、Threshyは開発前、リリース前、サポートのために設計されている。
論文 参考訳(メタデータ) (2020-08-19T04:02:45Z) - Modeling Perception Errors towards Robust Decision Making in Autonomous
Vehicles [11.503090828741191]
意思決定サブシステムが堅牢で安全な判断を下すのに十分な認識サブシステムは十分か?
自律システムの挙動に異なる種類の知覚・知覚誤差が与える影響を解析する方法を示す。
論文 参考訳(メタデータ) (2020-01-31T08:02:14Z) - Dirichlet uncertainty wrappers for actionable algorithm accuracy
accountability and auditability [0.5156484100374058]
本研究では,不確実性の尺度を用いて出力予測を充実させるラッパーを提案する。
結果の不確実性に基づいて、より確実な予測を選択する拒絶制度を提唱する。
その結果,ラッパーが計算した不確実性の有効性が示された。
論文 参考訳(メタデータ) (2019-12-29T11:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。