論文の概要: Probabilistic Strategy Logic with Degrees of Observability
- arxiv url: http://arxiv.org/abs/2412.15135v1
- Date: Thu, 19 Dec 2024 18:17:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 13:30:16.020064
- Title: Probabilistic Strategy Logic with Degrees of Observability
- Title(参考訳): 可観測性を考慮した確率論的戦略論理
- Authors: Chunyan Mu, Nima Motamed, Natasha Alechina, Brian Logan,
- Abstract要約: 情報透明性特性の推論は、セキュリティ、プライバシ、意思決定を含む多くの領域で有用である。
エージェントによる時間的特性の観測可能性の度合いを計測する新しい可観測性演算子を用いて確率論的戦略論理を拡張した。
結果の論理に対するモデルチェックの問題が決定可能であることを示す。
- 参考スコア(独自算出の注目度): 8.369690055177188
- License:
- Abstract: There has been considerable work on reasoning about the strategic ability of agents under imperfect information. However, existing logics such as Probabilistic Strategy Logic are unable to express properties relating to information transparency. Information transparency concerns the extent to which agents' actions and behaviours are observable by other agents. Reasoning about information transparency is useful in many domains including security, privacy, and decision-making. In this paper, we present a formal framework for reasoning about information transparency properties in stochastic multi-agent systems. We extend Probabilistic Strategy Logic with new observability operators that capture the degree of observability of temporal properties by agents. We show that the model checking problem for the resulting logic is decidable.
- Abstract(参考訳): 不完全な情報の下でのエージェントの戦略的能力についての推論については、かなりの研究がなされている。
しかし、確率論的戦略論理のような既存の論理は、情報の透明性に関する特性を表現できない。
情報の透明性は、エージェントの行動や行動が他のエージェントによって観察できる範囲に関するものである。
情報の透明性に関する推論は、セキュリティ、プライバシ、意思決定など、多くの領域で有用である。
本稿では,確率的マルチエージェントシステムにおける情報透明性特性の推論のための公式な枠組みを提案する。
エージェントによる時間的特性の観測可能性の度合いを計測する新しい可観測性演算子を用いて確率論的戦略論理を拡張した。
結果の論理に対するモデルチェックの問題が決定可能であることを示す。
関連論文リスト
- Watson: A Cognitive Observability Framework for the Reasoning of Foundation Model-Powered Agents [7.392058124132526]
ファウンデーションモデル(FM)は、FMベースのエージェントソフトウェア(エージェントウェア)のような複雑なソフトウェアシステムにおいて、ますます顕著な役割を担っている。
従来のソフトウェアとは異なり、エージェントは不透明なデータと暗黙の推論を使用して自律的に操作する。
このような革新的なシステムに現れた新しいタイプの要求可観測性として,認知可観測性を提案する。
論文 参考訳(メタデータ) (2024-11-05T19:13:22Z) - Leveraging Counterfactual Paths for Contrastive Explanations of POMDP Policies [2.4332936182093197]
XAIは、エージェント行動の説明を提供することで、混乱を減らし、システムの信頼を高めることを目的としている。
POMDPは、遷移と状態の不確実性を推論できる柔軟なフレームワークを提供する。
本研究は,POMDPポリシーの対照的な説明を生成するために,ユーザが提供する反ファクトファクトの活用について検討する。
論文 参考訳(メタデータ) (2024-03-28T18:19:38Z) - Language Models Can Reduce Asymmetry in Information Markets [100.38786498942702]
我々は、言語モデルを利用した知的エージェントが外部参加者に代わって情報を売買する、オープンソースのシミュレートされたデジタルマーケットプレースを紹介した。
このマーケットプレースを実現する中心的なメカニズムはエージェントの二重機能であり、特権情報の品質を評価する能力を持つと同時に、忘れる能力も備えている。
適切に行動するためには、エージェントは合理的な判断をし、生成されたサブクエリを通じて市場を戦略的に探索し、購入した情報から回答を合成する必要がある。
論文 参考訳(メタデータ) (2024-03-21T14:48:37Z) - On Quantified Observability Analysis in Multiagent Systems [5.620321106679634]
本稿では,マルチエージェントシステム(MAS)の可観測特性を定量的に解析するための新しい手法を提案する。
不透明性の概念は、部分的に観測可能なマルチエージェントシステムとしてモデル化されたMASにおける可観測性の特徴を正式に表現するために適用される。
本稿では,エージェントの観測可能性と定量的な目標を関連付けるための時間論理oPATLを提案する。
論文 参考訳(メタデータ) (2023-10-04T06:58:26Z) - Weakly Supervised Knowledge Transfer with Probabilistic Logical
Reasoning for Object Detection [6.88204255655161]
オブジェクト検出モデルのトレーニングは通常、各画像に存在するすべてのオブジェクトの位置やラベルなど、インスタンスレベルのアノテーションを必要とする。
残念ながらこのような監視は必ずしも可能ではなく、より多くは画像レベルの情報のみ提供され、弱い監督(英語版)としても知られている。
ProbKTは、オブジェクト検出モデルを任意の種類の弱い監視で訓練できるフレームワークである。
論文 参考訳(メタデータ) (2023-03-09T10:03:02Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Heterogeneous-Agent Trajectory Forecasting Incorporating Class
Uncertainty [54.88405167739227]
本稿では,エージェントのクラス確率を明示的に組み込んだヘテロジニアスエージェント軌道予測手法であるHAICUを提案する。
さらに,新たな挑戦的な実世界の自動運転データセットであるpupも紹介する。
軌道予測にクラス確率を組み込むことで,不確実性に直面した性能が著しく向上することを示す。
論文 参考訳(メタデータ) (2021-04-26T10:28:34Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Self-Supervised Discovering of Interpretable Features for Reinforcement
Learning [40.52278913726904]
深層強化学習のための自己教師付き解釈可能なフレームワークを提案する。
タスク関連情報を強調するための細かな注意マスクを作成するために、自己教師型解釈ネットワーク(SSINet)が使用される。
Atari 2600とDuckietownは、自動運転車のシミュレータ環境として難易度の高い環境である。
論文 参考訳(メタデータ) (2020-03-16T08:26:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。