論文の概要: On Quantified Observability Analysis in Multiagent Systems
- arxiv url: http://arxiv.org/abs/2310.02614v1
- Date: Wed, 4 Oct 2023 06:58:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 16:09:53.497878
- Title: On Quantified Observability Analysis in Multiagent Systems
- Title(参考訳): マルチエージェントシステムにおける量子可観測性解析について
- Authors: Chunyan Mu and Jun Pang
- Abstract要約: 本稿では,マルチエージェントシステム(MAS)の可観測特性を定量的に解析するための新しい手法を提案する。
不透明性の概念は、部分的に観測可能なマルチエージェントシステムとしてモデル化されたMASにおける可観測性の特徴を正式に表現するために適用される。
本稿では,エージェントの観測可能性と定量的な目標を関連付けるための時間論理oPATLを提案する。
- 参考スコア(独自算出の注目度): 5.620321106679634
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In multiagent systems (MASs), agents' observation upon system behaviours may
improve the overall team performance, but may also leak sensitive information
to an observer. A quantified observability analysis can thus be useful to
assist decision-making in MASs by operators seeking to optimise the
relationship between performance effectiveness and information exposure through
observations in practice. This paper presents a novel approach to
quantitatively analysing the observability properties in MASs. The concept of
opacity is applied to formally express the characterisation of observability in
MASs modelled as partially observable multiagent systems. We propose a temporal
logic oPATL to reason about agents' observability with quantitative goals,
which capture the probability of information transparency of system behaviours
to an observer, and develop verification techniques for quantitatively
analysing such properties. We implement the approach as an extension of the
PRISM model checker, and illustrate its applicability via several examples.
- Abstract(参考訳): マルチエージェントシステム(MAS)では、エージェントがシステム動作を観察することでチーム全体のパフォーマンスが向上するが、観察者に機密情報を漏らすこともある。
したがって、実測による性能効果と情報露出の関係を最適化しようとするオペレーターによるマス意思決定を支援するには、定量観測可能性分析が有用である。
本稿では,質量の観測可能性特性を定量的に解析する新しい手法を提案する。
不透明性の概念は、部分可観測マルチエージェントシステムとしてモデル化された質量における可観測性のキャラクタリゼーションを形式的に表現するために適用される。
本稿では,エージェントの観測可能性と定量的な目標を推定するための時間論理oPATLを提案し,観測者に対するシステム動作の情報透明性の確率を計測し,その特性を定量的に解析する検証手法を開発した。
提案手法はPRISMモデルチェッカーの拡張として実装され,いくつかの例を通して適用性を示す。
関連論文リスト
- On Multi-Agent Inverse Reinforcement Learning [8.284137254112848]
Inverse Reinforcement Learning (IRL) フレームワークを多エージェント設定に拡張し、Nash Equilibrium (NE) ポリシーに従うエージェントを観察する。
本稿では,現実的な報酬セットを明示的に評価し,移行ダイナミクスや専門家の行動が報酬にどのように影響するかを推定する。
論文 参考訳(メタデータ) (2024-11-22T16:31:36Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - AgentBoard: An Analytical Evaluation Board of Multi-turn LLM Agents [76.95062553043607]
大きな言語モデル(LLM)を評価することは、その能力を理解し、実践的なアプリケーションへの統合を促進するために不可欠である。
本稿では,LLMエージェントの分析的評価に適したオープンソース評価フレームワークであるAgentBoardを紹介する。
論文 参考訳(メタデータ) (2024-01-24T01:51:00Z) - Understanding Self-attention Mechanism via Dynamical System Perspective [58.024376086269015]
SAM(Self-attention mechanism)は、人工知能の様々な分野で広く使われている。
常微分方程式(ODE)の高精度解における固有剛性現象(SP)は,高性能ニューラルネットワーク(NN)にも広く存在することを示す。
SAMは、本質的なSPを測定するためのモデルの表現能力を高めることができる剛性対応のステップサイズ適応器でもあることを示す。
論文 参考訳(メタデータ) (2023-08-19T08:17:41Z) - Autonomous Capability Assessment of Sequential Decision-Making Systems
in Stochastic Settings (Extended Version) [27.825419721676766]
ユーザは自分のAIシステムに何ができるかを理解し、安全に使用するためには不可能である。
本稿では,ブラックボックス型AIシステムにおいて,計画と動作が可能な能力をモデル化するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-07T22:05:48Z) - Communicating Uncertainty in Machine Learning Explanations: A
Visualization Analytics Approach for Predictive Process Monitoring [0.0]
本研究では,グローバルおよびローカルなポストホックな説明手法でモデル不確実性を効果的に伝達する方法を検討する。
これら2つの研究の方向性を組み合わせることで、意思決定者は説明駆動型実行可能な洞察の妥当性を正当化できるだけでなく、信頼性も検証できる。
論文 参考訳(メタデータ) (2023-04-12T09:44:32Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Multilingual Multi-Aspect Explainability Analyses on Machine Reading Comprehension Models [76.48370548802464]
本稿では,マルチヘッド自己注意と最終MRCシステム性能の関係を検討するために,一連の解析実験を実施することに焦点を当てる。
問合せ及び問合せ理解の注意が問合せプロセスにおいて最も重要なものであることが判明した。
包括的可視化とケーススタディを通じて、注意マップに関するいくつかの一般的な知見も観察し、これらのモデルがどのように問題を解くかを理解するのに役立ちます。
論文 参考訳(メタデータ) (2021-08-26T04:23:57Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。