論文の概要: Using Deep Q-Learning to Dynamically Toggle between Push/Pull Actions in Computational Trust Mechanisms
- arxiv url: http://arxiv.org/abs/2404.18296v1
- Date: Sun, 28 Apr 2024 19:44:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 15:16:10.546534
- Title: Using Deep Q-Learning to Dynamically Toggle between Push/Pull Actions in Computational Trust Mechanisms
- Title(参考訳): 深部Q-Learningを用いたコンピュータ信頼機構におけるプッシュ/プル動作の動的切り替え
- Authors: Zoi Lygizou, Dimitris Kalles,
- Abstract要約: これまでの研究では、信頼度と評価モデルとしてよく知られたCAとFIREを比較し、信頼度が変化するとCAの方が優れていることを示した。
我々は、この問題を部分的に観察可能な環境での機械学習問題とみなし、信頼者にはいくつかの動的要因が存在することが分かっていない。
適応可能なエージェントは、各モデルをいつ使用するかを学ぶことができ、したがって、動的環境において一貫して実行可能であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work on decentralized computational trust models for open Multi Agent Systems has resulted in the development of CA, a biologically inspired model which focuses on the trustee's perspective. This new model addresses a serious unresolved problem in existing trust and reputation models, namely the inability to handle constantly changing behaviors and agents' continuous entry and exit from the system. In previous work, we compared CA to FIRE, a well-known trust and reputation model, and found that CA is superior when the trustor population changes, whereas FIRE is more resilient to the trustee population changes. Thus, in this paper, we investigate how the trustors can detect the presence of several dynamic factors in their environment and then decide which trust model to employ in order to maximize utility. We frame this problem as a machine learning problem in a partially observable environment, where the presence of several dynamic factors is not known to the trustor and we describe how an adaptable trustor can rely on a few measurable features so as to assess the current state of the environment and then use Deep Q Learning (DQN), in a single-agent Reinforcement Learning setting, to learn how to adapt to a changing environment. We ran a series of simulation experiments to compare the performance of the adaptable trustor with the performance of trustors using only one model (FIRE or CA) and we show that an adaptable agent is indeed capable of learning when to use each model and, thus, perform consistently in dynamic environments.
- Abstract(参考訳): オープンマルチエージェントシステムのための分散計算信頼モデルに関する最近の研究は、信頼者の視点に焦点をあてた生物学的にインスパイアされたモデルであるCAの開発をもたらした。
この新モデルは、既存の信頼と評価モデルにおける深刻な未解決の問題に対処する。
従来,信頼度と評価モデルとしてよく知られたCAとFIREを比較し,信頼度が変化してもCAの方が優れているのに対して,FIREは信頼度が変化してもより回復力が高いことがわかった。
そこで本稿では,コントラクタが環境に複数の動的要因が存在することを検知し,有効性を最大化するためにどの信頼モデルを使うかを決定する方法について検討する。
我々は、この問題を部分的に観察可能な環境における機械学習問題とみなし、信頼者にはいくつかの動的要因が存在することが分かっておらず、適応可能なコントラクタが環境の現状を評価するためにいくつかの測定可能な機能に頼り、その後、単一エージェント強化学習環境でDeep Q Learning(DQN)を使用して、変化する環境に適応する方法を学ぶ方法について述べる。
我々は,適応型コントラクタの性能を1つのモデル(FIREまたはCA)のみを用いて比較するため,一連のシミュレーション実験を行い,適応型エージェントが各モデルをいつ使用すべきかを学習できることを示す。
関連論文リスト
- Linguistic Fuzzy Information Evolution with Random Leader Election Mechanism for Decision-Making Systems [58.67035332062508]
言語ファジィ情報進化はエージェント間の情報交換を理解する上で重要である。
エージェントの重みの違いは、古典的なDeGrootモデルにおいて異なる収束結果をもたらす可能性がある。
本稿では,言語ファジィ情報力学の新しい3つのモデルを提案する。
論文 参考訳(メタデータ) (2024-10-19T18:15:24Z) - A biologically inspired computational trust model for open multi-agent systems which is resilient to trustor population changes [0.0]
この研究は、シナプスの可塑性とヒト脳内の集合体の形成にインスパイアされた、分散化された計算信頼モデルであるCAに基づいている。
我々はCAモデルとFIREを比較し,オープンMASのための分散型信頼と評価モデルを構築した。
主な発見は、FIREが受託者人口の変化よりも優れているのに対して、CAは受託者人口の変化に対して回復力があることである。
論文 参考訳(メタデータ) (2024-04-13T10:56:32Z) - TrustGuard: GNN-based Robust and Explainable Trust Evaluation with
Dynamicity Support [59.41529066449414]
本稿では,信頼度を考慮した信頼度評価モデルであるTrustGuardを提案する。
TrustGuardは、スナップショット入力層、空間集約層、時間集約層、予測層を含む階層アーキテクチャで設計されている。
実験により、TrustGuardは、シングルタイムスロットとマルチタイムスロットの信頼予測に関して、最先端のGNNベースの信頼評価モデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-06-23T07:39:12Z) - Calibrating Multimodal Learning [94.65232214643436]
本稿では,従来の手法の予測信頼性を校正するために,新たな正規化手法であるCML(Callibrating Multimodal Learning)正則化を提案する。
この技術は、既存のモデルによって柔軟に装備され、信頼性校正、分類精度、モデルロバスト性の観点から性能を向上させることができる。
論文 参考訳(メタデータ) (2023-06-02T04:29:57Z) - Reliability in Semantic Segmentation: Are We on the Right Track? [15.0189654919665]
我々は、古いResNetベースのアーキテクチャから新しいトランスフォーマーまで、さまざまなモデルを分析します。
近年のモデルでは, 信頼性は著しく高いが, 不確実性評価の点では, 全体として信頼性は高くない。
これは、ロバストネスと不確実性推定の両方に焦点を当てた現代のセグメンテーションモデルに関する最初の研究である。
論文 参考訳(メタデータ) (2023-03-20T17:38:24Z) - Trust, but Verify: Using Self-Supervised Probing to Improve
Trustworthiness [29.320691367586004]
我々は、訓練されたモデルに対する自信の過剰な問題をチェックおよび緩和することのできる、自己教師型探索の新しいアプローチを導入する。
既存の信頼性関連手法に対して,プラグイン・アンド・プレイ方式で柔軟に適用可能な,シンプルで効果的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-06T08:57:20Z) - Differential Assessment of Black-Box AI Agents [29.98710357871698]
従来知られていたモデルから逸脱したブラックボックスAIエージェントを差分評価する手法を提案する。
我々は,漂流エージェントの現在の挙動と初期モデルの知識の疎度な観察を利用して,アクティブなクエリポリシーを生成する。
経験的評価は、エージェントモデルをスクラッチから再学習するよりも、我々のアプローチの方がはるかに効率的であることを示している。
論文 参考訳(メタデータ) (2022-03-24T17:48:58Z) - Efficient Model-based Multi-agent Reinforcement Learning via Optimistic
Equilibrium Computation [93.52573037053449]
H-MARL (Hallucinated Multi-Agent Reinforcement Learning) は,環境と数回交流した後の平衡政策を学習する。
自律運転シミュレーションベンチマークにおいて,本手法を実験的に実証した。
論文 参考訳(メタデータ) (2022-03-14T17:24:03Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Deep Interactive Bayesian Reinforcement Learning via Meta-Learning [63.96201773395921]
他のエージェントの戦略に対する不確実性下での最適適応行動は、インタラクティブベイズ強化学習フレームワークを用いて計算することができる。
本稿では,メタラーン近似的信念推論とベイズ最適行動を提案する。
提案手法は, モデルフリーアプローチ, 近似後部からのサンプル採取, 他者のメモリフリーモデル維持, あるいは環境の既知の構造を完全に活用しない既存手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-01-11T13:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。