論文の概要: A Factor Graph Model of Trust for a Collaborative Multi-Agent System
- arxiv url: http://arxiv.org/abs/2402.07049v1
- Date: Sat, 10 Feb 2024 21:44:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 17:56:36.095166
- Title: A Factor Graph Model of Trust for a Collaborative Multi-Agent System
- Title(参考訳): 協調型マルチエージェントシステムのための信頼度因子グラフモデル
- Authors: Behzad Akbari, Mingfeng Yuan, Hao Wang, Haibin Zhu, Jinjun Shan
- Abstract要約: 信頼とは、エージェントがシステム内の他者の情報、行動、意図、真実性、能力に依存し、信頼することである。
本稿では,エージェント間の相互依存行動と信頼性を表現するために因子グラフを利用する新しいグラフィカルアプローチを提案する。
信頼度評価手法は分散化され, 近接安全性, 一貫性, 協調といった重要な相互依存サブファクタを考察する。
- 参考スコア(独自算出の注目度): 8.286807697708113
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the field of Multi-Agent Systems (MAS), known for their openness,
dynamism, and cooperative nature, the ability to trust the resources and
services of other agents is crucial. Trust, in this setting, is the reliance
and confidence an agent has in the information, behaviors, intentions,
truthfulness, and capabilities of others within the system. Our paper
introduces a new graphical approach that utilizes factor graphs to represent
the interdependent behaviors and trustworthiness among agents. This includes
modeling the behavior of robots as a trajectory of actions using a Gaussian
process factor graph, which accounts for smoothness, obstacle avoidance, and
trust-related factors. Our method for evaluating trust is decentralized and
considers key interdependent sub-factors such as proximity safety, consistency,
and cooperation. The overall system comprises a network of factor graphs that
interact through trust-related factors and employs a Bayesian inference method
to dynamically assess trust-based decisions with informed consent. The
effectiveness of this method is validated via simulations and empirical tests
with autonomous robots navigating unsignalized intersections.
- Abstract(参考訳): オープン性、ダイナミズム、協調性で知られるマルチエージェントシステム(MAS)の分野では、他のエージェントのリソースやサービスを信頼する能力が不可欠である。
この環境での信頼とは、エージェントがシステム内の他の人の情報、行動、意図、真実性、能力に依存し、信頼することである。
本稿では,因子グラフを用いてエージェント間の相互依存的行動や信頼性を表現する新しいグラフィカルアプローチを提案する。
これには、ロボットの振る舞いを、滑らかさ、障害物回避、信頼に関連する要因を考慮し、ガウス過程因子グラフを用いて行動の軌跡としてモデル化することが含まれる。
信頼度評価手法は分散化され, 近接安全性, 一貫性, 協調といった重要な相互依存サブファクタを考察する。
システム全体は信頼関連因子を介して相互作用する因子グラフのネットワークから構成されており、ベイズ推定法を用いて情報的同意で信頼に基づく決定を動的に評価する。
本手法の有効性は,無信号交差点を走行する自律ロボットによるシミュレーションおよび実証実験により検証した。
関連論文リスト
- Learning responsibility allocations for multi-agent interactions: A differentiable optimization approach with control barrier functions [12.074590482085831]
責任レンズを介して安全なマルチエージェントインタラクションを規定する要因を定式化する。
本稿では,制御障壁関数と微分可能最適化に基づくデータ駆動モデリング手法を提案する。
論文 参考訳(メタデータ) (2024-10-09T20:20:41Z) - Using Deep Q-Learning to Dynamically Toggle between Push/Pull Actions in Computational Trust Mechanisms [0.0]
これまでの研究では、信頼度と評価モデルとしてよく知られたCAとFIREを比較し、信頼度が変化するとCAの方が優れていることを示した。
我々は、この問題を部分的に観察可能な環境での機械学習問題とみなし、信頼者にはいくつかの動的要因が存在することが分かっていない。
適応可能なエージェントは、各モデルをいつ使用するかを学ぶことができ、したがって、動的環境において一貫して実行可能であることを示す。
論文 参考訳(メタデータ) (2024-04-28T19:44:56Z) - Multi-Agent Dynamic Relational Reasoning for Social Robot Navigation [55.65482030032804]
社会ロボットナビゲーションは、日常生活の様々な状況において有用であるが、安全な人間とロボットの相互作用と効率的な軌道計画が必要である。
本稿では, 動的に進化する関係構造を明示的に推論した系統的関係推論手法を提案する。
提案手法は,軌道予測器が将来の状態を生成するために使用する関係の進化を捉えるために,動的に進化する関係グラフとハイパーグラフを推論する。
論文 参考訳(メタデータ) (2024-01-22T18:58:22Z) - KGTrust: Evaluating Trustworthiness of SIoT via Knowledge Enhanced Graph
Neural Networks [63.531790269009704]
ソーシャル・インターネット・オブ・モノ(Social Internet of Things, SIoT)は、スマート・オブジェクト(物)にソーシャルネットワークの概念を注入する、有望で新興のパラダイムである。
リスクと不確実性のため、解決すべき重要かつ緊急の問題は、SIoT内で信頼性の高い関係、すなわち信頼評価を確立することである。
本稿では,SIoTにおける信頼度向上のための知識強化グラフニューラルネットワーク(KGTrust)を提案する。
論文 参考訳(メタデータ) (2023-02-22T14:24:45Z) - Trust Calibration as a Function of the Evolution of Uncertainty in
Knowledge Generation: A Survey [1.462008690460147]
我々は、視覚分析システムにおけるユーザの信頼が、そのライフサイクルを通してどのように進化していくかを理解するためには、情報抽出を通じて、データソースからの不確実性の伝播を考慮する必要があると論じている。
我々は、視覚分析、人間の認知理論、不確実性から文献の幅広い断面をサンプリングし、有用な視点を合成しようと試みる。
論文 参考訳(メタデータ) (2022-09-09T16:46:37Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Robust Event-Driven Interactions in Cooperative Multi-Agent Learning [0.0]
本稿では,マルチエージェント学習システムにおけるエージェント間の通信を,基礎となるマルコフ決定プロセスの本質的ロバスト性を利用して削減する手法を提案する。
いわゆるロバストネス代理関数(オフライン)を計算し、エージェントがシステム内の他のエージェントを更新する前に、その状態の測定値がどれくらい逸脱するかを保守的に示す。
これにより、完全に分散された決定関数が実現され、エージェントが他を更新する必要があるかどうかを判断できるようになる。
論文 参考訳(メタデータ) (2022-04-07T11:00:39Z) - Personalized multi-faceted trust modeling to determine trust links in
social media and its potential for misinformation management [61.88858330222619]
ソーシャルメディアにおけるピア間の信頼関係を予測するためのアプローチを提案する。
本稿では,データ駆動型多面信頼モデルを提案する。
信頼を意識したアイテムレコメンデーションタスクで説明され、提案したフレームワークを大規模なYelpデータセットのコンテキストで評価する。
論文 参考訳(メタデータ) (2021-11-11T19:40:51Z) - Multi-Agent Imitation Learning with Copulas [102.27052968901894]
マルチエージェント模倣学習は、観察と行動のマッピングを学習することで、デモからタスクを実行するために複数のエージェントを訓練することを目的としている。
本稿では,確率変数間の依存を捉える強力な統計ツールである copula を用いて,マルチエージェントシステムにおける相関関係と協調関係を明示的にモデル化する。
提案モデルでは,各エージェントの局所的行動パターンと,エージェント間の依存構造のみをフルにキャプチャするコプラ関数を別々に学習することができる。
論文 参考訳(メタデータ) (2021-07-10T03:49:41Z) - Trust as Extended Control: Active Inference and User Feedback During
Human-Robot Collaboration [2.6381163133447836]
その重要な役割にもかかわらず、信頼がどのように出現し、発展し、人間以外の人工物との人間の相互作用をサポートするかはほとんど不明です。
拡張モータープラントやパートナーとの信頼性の高い感覚交換のためのエージェントの最良の説明として信頼のモデルを紹介する。
信頼の成因における共有行動の役割について,特にダイアドコラボレーションの文脈で検討する。
論文 参考訳(メタデータ) (2021-04-22T16:11:22Z) - An Uncertainty-based Human-in-the-loop System for Industrial Tool Wear
Analysis [68.8204255655161]
人間のループシステムにおけるモンテカルロのドロップアウトに基づく不確実性対策により,システムの透明性と性能が向上することを示す。
シミュレーション研究により、不確実性に基づく「ループ内人間システム」は、様々なレベルの人間の関与に対する性能を高めることが示されている。
論文 参考訳(メタデータ) (2020-07-14T15:47:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。