論文の概要: Generation of Games for Opponent Model Differentiation
- arxiv url: http://arxiv.org/abs/2311.16781v1
- Date: Tue, 28 Nov 2023 13:45:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 18:17:04.408516
- Title: Generation of Games for Opponent Model Differentiation
- Title(参考訳): 対戦モデル微分のためのゲーム生成
- Authors: David Milec, Viliam Lis\'y, Christopher Kiekintveld
- Abstract要約: これまでの結果から,人間の振る舞いをモデル化することで,アルゴリズムの性能が大幅に向上することが示唆された。
本研究では、悪意ある行為を行う可能性を高める人格タイプを特定する心理学者によって収集されたデータを用いる。
私たちはそのパラメータと心理的特徴を結びつける新しいモデルを作成しました。
- 参考スコア(独自算出の注目度): 2.164100958962259
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Protecting against adversarial attacks is a common multiagent problem.
Attackers in the real world are predominantly human actors, and the protection
methods often incorporate opponent models to improve the performance when
facing humans. Previous results show that modeling human behavior can
significantly improve the performance of the algorithms. However, modeling
humans correctly is a complex problem, and the models are often simplified and
assume humans make mistakes according to some distribution or train parameters
for the whole population from which they sample. In this work, we use data
gathered by psychologists who identified personality types that increase the
likelihood of performing malicious acts. However, in the previous work, the
tests on a handmade game could not show strategic differences between the
models. We created a novel model that links its parameters to psychological
traits. We optimized over parametrized games and created games in which the
differences are profound. Our work can help with automatic game generation when
we need a game in which some models will behave differently and to identify
situations in which the models do not align.
- Abstract(参考訳): 敵攻撃に対する防御は、一般的なマルチエージェント問題である。
現実世界のアタッカーは、主に人間の俳優であり、保護法は、人間と向き合う際のパフォーマンスを改善するために、しばしば対向モデルを取り入れる。
これまでの結果,人間の行動のモデル化はアルゴリズムの性能を著しく向上させることができた。
しかしながら、人間を正しくモデル化することは複雑な問題であり、モデルはしばしば単純化され、人間がサンプリングする集団全体の分布や訓練パラメータに従って間違いを犯すと仮定する。
本研究では、悪意ある行為を行う可能性を高める性格タイプを特定する心理学者によって収集されたデータを用いる。
しかし、以前の作業では、手作りゲームにおけるテストでは、モデル間の戦略的違いが示されなかった。
我々はそのパラメーターと心理的特徴を結びつける新しいモデルを作成した。
私たちはパラメトリズドゲームを最適化し、違いが深いゲームを作成しました。
我々の作業は、いくつかのモデルが異なる振る舞いをするゲームが必要なときに自動ゲーム生成に役立ち、モデルが整合しない状況を特定するのに役立つ。
関連論文リスト
- Expectation vs. Reality: Towards Verification of Psychological Games [18.30789345402813]
心理学ゲーム(PG)は、信念に依存した動機を持つエージェントをモデル化し分析する方法として開発された。
本稿では,ゲームの公式検証ツールであるPRISM-gamesでPGを解き,実装する手法を提案する。
論文 参考訳(メタデータ) (2024-11-08T14:41:52Z) - Large Model Strategic Thinking, Small Model Efficiency: Transferring Theory of Mind in Large Language Models [0.0]
微調整による小型かつ高性能な特殊アルゴリズムの実現可能性について検討する。
まず,異なる社会的文脈と異なる社会的ジレンマのゲームを組み合わせて,その回答を記録し,Q&Aの微調整に使用する,20種類のシナリオを持つ大規模事前学習モデルを提案する。
微調整されたより小さな言語モデルは、より小さな事前訓練されたモデルとより大きな相対性の間の性能のギャップを一貫して橋渡しすることを発見した。
論文 参考訳(メタデータ) (2024-08-05T20:49:48Z) - Behavioural Cloning in VizDoom [1.4999444543328293]
本稿では,Imitation Learning (IL) による自律エージェントのゲーム「Doom 2」の学習方法について述べる。
また,Reinforcement Learning (RL) がカメラの動きと軌跡データを比較することで,人間性に対するILとの比較を行う。
論文 参考訳(メタデータ) (2024-01-08T16:15:43Z) - Incorporating Rivalry in Reinforcement Learning for a Competitive Game [65.2200847818153]
本研究は,競争行動の社会的影響に基づく新しい強化学習機構を提案する。
提案モデルでは, 人工エージェントの学習を調節するための競合スコアを導出するために, 客観的, 社会的認知的メカニズムを集約する。
論文 参考訳(メタデータ) (2022-08-22T14:06:06Z) - Detecting Individual Decision-Making Style: Exploring Behavioral
Stylometry in Chess [4.793072503820555]
チェスの文脈における行動スタイメトリーに対するトランスフォーマーに基づくアプローチを提案する。
本手法は,数発の分類フレームワークで動作し,数千人の候補選手の中から選手を正確に識別することができる。
我々は、チェスにおける人間のスタイルと潜在的な倫理的意味について、結果の埋め込みが明らかにするものをより広く検討する。
論文 参考訳(メタデータ) (2022-08-02T11:18:16Z) - Multi-Game Decision Transformers [49.257185338595434]
そこで本研究では,1つのトランスフォーマーモデルを用いて,最大46個のAtariゲーム群を,人間に近いパフォーマンスで同時にプレイ可能であることを示す。
オンラインやオフラインのRL手法や行動クローンなど,マルチゲーム設定におけるいくつかのアプローチを比較した。
マルチゲーム決定変換モデルは、最高のスケーラビリティとパフォーマンスを提供します。
論文 参考訳(メタデータ) (2022-05-30T16:55:38Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Adversarial Imitation Attack [63.76805962712481]
現実的な敵攻撃は、攻撃されたモデルの知識をできるだけ少なくする必要がある。
現在の代替攻撃では、敵の例を生成するために事前訓練されたモデルが必要である。
本研究では,新たな敵模倣攻撃を提案する。
論文 参考訳(メタデータ) (2020-03-28T10:02:49Z) - DaST: Data-free Substitute Training for Adversarial Attacks [55.76371274622313]
本研究では,敵対的ブラックボックス攻撃の代替モデルを得るためのデータフリー代替訓練法(DaST)を提案する。
これを実現するため、DaSTは特別に設計されたGANを用いて代替モデルを訓練する。
実験では、代替モデルがベースラインモデルと比較して競争性能を発揮することを示した。
論文 参考訳(メタデータ) (2020-03-28T04:28:13Z) - Model-Based Reinforcement Learning for Atari [89.3039240303797]
エージェントがモデルフリーの手法よりも少ないインタラクションでAtariゲームを解くことができることを示す。
本実験は,エージェントと環境間の100kの相互作用の少ないデータ構造における,AtariゲームにおけるSimPLeの評価である。
論文 参考訳(メタデータ) (2019-03-01T15:40:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。