論文の概要: Corruption and Audit in Strategic Argumentation
- arxiv url: http://arxiv.org/abs/2008.13115v1
- Date: Sun, 30 Aug 2020 08:08:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 12:27:51.203765
- Title: Corruption and Audit in Strategic Argumentation
- Title(参考訳): 戦略的議論における腐敗と監査
- Authors: Michael J. Maher
- Abstract要約: (2016年)戦略的議論の中で腐敗と抵抗のモデルを導入した。
本稿では,その定式化で検出されない誤動作を同定する。
我々は、強化されたモデルの下で、すべての戦略目標(Maher, 2016)が腐敗に抵抗していることを示します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Strategic argumentation provides a simple model of disputation and
negotiation among agents. Although agents might be expected to act in our best
interests, there is little that enforces such behaviour. (Maher, 2016)
introduced a model of corruption and resistance to corruption within strategic
argumentation. In this paper we identify corrupt behaviours that are not
detected in that formulation. We strengthen the model to detect such
behaviours, and show that, under the strengthened model, all the strategic aims
in (Maher, 2016) are resistant to corruption.
- Abstract(参考訳): 戦略的議論はエージェント間の議論と交渉の単純なモデルを提供する。
エージェントは最善の利益のために行動することが期待されますが、そのような行為を強制するものはほとんどありません。
(maher, 2016) 戦略的議論の中で腐敗と腐敗に対する抵抗のモデルを導入した。
本稿では,その定式化では検出されない腐敗行動を明らかにする。
このような行動を検出するためのモデルを強化し、強化されたモデルの下では、すべての戦略目標(Maher, 2016)が腐敗に対して抵抗的であることを示す。
関連論文リスト
- Enhancing Infrared Small Target Detection Robustness with Bi-Level
Adversarial Framework [61.34862133870934]
本稿では,異なる汚職の存在下での検出の堅牢性を促進するために,二段階の対向的枠組みを提案する。
我々の手法は広範囲の汚職で21.96%のIOUを著しく改善し、特に一般ベンチマークで4.97%のIOUを推進している。
論文 参考訳(メタデータ) (2023-09-03T06:35:07Z) - Revisiting and Advancing Adversarial Training Through A Simple Baseline [7.226961695849204]
我々はSimpleATと呼ばれるシンプルなベースラインアプローチを導入し、最近の手法と競合し、堅牢なオーバーフィッティングを緩和する。
我々はCIFAR-10/100とTiny-ImageNetで広範囲に実験を行い、SimpleATの最先端の敵攻撃に対する堅牢性を検証する。
以上の結果から,SimpleATと先進的対人防御手法の相互関係が明らかとなった。
論文 参考訳(メタデータ) (2023-06-13T08:12:52Z) - Frequency-Based Vulnerability Analysis of Deep Learning Models against
Image Corruptions [48.34142457385199]
MUFIAは、モデルが失敗する可能性のある特定の種類の汚職を特定するために設計されたアルゴリズムである。
最先端のモデルでさえ、既知の一般的な汚職に対して堅牢であるように訓練されたモデルでさえ、MUFIAによって作られた低視認性ベースの汚職と戦っている。
論文 参考訳(メタデータ) (2023-06-12T15:19:13Z) - Robustness Testing for Multi-Agent Reinforcement Learning: State
Perturbations on Critical Agents [2.5204420653245245]
MARL(Multi-Agent Reinforcement Learning)は、スマート交通や無人航空機など、多くの分野に広く応用されている。
本研究は,MARLのための新しいロバストネステストフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-09T02:26:28Z) - Modelling Control Arguments via Cooperation Logic in Unforeseen
Scenarios [0.0]
本稿では,協調論理を用いたマルチエージェントシナリオの形式化を提案し,動的環境におけるエージェントの戦略と行動について検討する。
制御議論フレームワークの意図は、エージェントの観点から戦略的シナリオをモデル化することである。
しかし、不確実な環境での一連のエージェント間の連立の形成と相互作用を適切に考慮していない。
論文 参考訳(メタデータ) (2022-10-21T17:14:41Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - ADC: Adversarial attacks against object Detection that evade Context
consistency checks [55.8459119462263]
文脈整合性チェックさえも、適切に構築された敵の例に対して脆弱であることを示す。
このような防御を覆す実例を生成するための適応型フレームワークを提案する。
我々の結果は、コンテキストを堅牢にモデル化し、一貫性をチェックする方法はまだ未解決の問題であることを示している。
論文 参考訳(メタデータ) (2021-10-24T00:25:09Z) - Catch Me if I Can: Detecting Strategic Behaviour in Peer Assessment [61.24399136715106]
我々は、試験やホームワークの査定や採用・昇進の査定など、様々な査定課題における戦略的行動の課題について考察する。
我々はこのような操作を検出する方法の設計に重点を置いている。
具体的には、エージェントがピアのサブセットを評価し、後に集約されたランキングを最終的な順序付けとして出力する設定について検討する。
論文 参考訳(メタデータ) (2020-10-08T15:08:40Z) - Learning Goal-oriented Dialogue Policy with Opposite Agent Awareness [116.804536884437]
本稿では,目標指向対話における政策学習のための逆行動認識フレームワークを提案する。
我々は、その行動から相手エージェントの方針を推定し、この推定を用いてターゲットエージェントを対象ポリシーの一部として関連づけて改善する。
論文 参考訳(メタデータ) (2020-04-21T03:13:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。