論文の概要: ElementaryNet: A Non-Strategic Neural Network for Predicting Human Behavior in Normal-Form Games
- arxiv url: http://arxiv.org/abs/2503.05925v1
- Date: Fri, 07 Mar 2025 20:47:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:50:36.716996
- Title: ElementaryNet: A Non-Strategic Neural Network for Predicting Human Behavior in Normal-Form Games
- Title(参考訳): BasicNet: ノーマルフォームゲームにおける人間の行動予測のための非定型ニューラルネットワーク
- Authors: Greg d'Eon, Hala Murad, Kevin Leyton-Brown, James R. Wright,
- Abstract要約: GameNetは、データから非常に複雑なレベル0の仕様を学ぶニューラルネットワークである。
本稿では,GameNetのレベル0仕様は,戦略的推論が可能なため,あまりにも強力であることを示す。
これは新しいニューラルネットワークアーキテクチャ(ベースネットと呼ばれる)を導入し、非ストラテジックな振る舞いしかできないことを証明している。
- 参考スコア(独自算出の注目度): 11.093095696026861
- License:
- Abstract: Models of human behavior in game-theoretic settings often distinguish between strategic behavior, in which a player both reasons about how others will act and best responds to these beliefs, and "level-0" non-strategic behavior, in which they do not respond to explicit beliefs about others. The state of the art for predicting human behavior on unrepeated simultaneous-move games is GameNet, a neural network that learns extremely complex level-0 specifications from data. The current paper makes three contributions. First, it shows that GameNet's level-0 specifications are too powerful, because they are capable of strategic reasoning. Second, it introduces a novel neural network architecture (dubbed ElementaryNet) and proves that it is only capable of nonstrategic behavior. Third, it describes an extensive experimental evaluation of ElementaryNet. Our overall findings are that (1) ElementaryNet dramatically underperforms GameNet when neither model is allowed to explicitly model higher level agents who best-respond to the model's predictions, indicating that good performance on our dataset requires a model capable of strategic reasoning; (2) that the two models achieve statistically indistinguishable performance when such higher-level agents are introduced, meaning that ElementaryNet's restriction to a non-strategic level-0 specification does not degrade model performance; and (3) that this continues to hold even when ElementaryNet is restricted to a set of level-0 building blocks previously introduced in the literature, with only the functional form being learned by the neural network.
- Abstract(参考訳): ゲーム理論の設定における人間の行動のモデルはしばしば、プレイヤーが他者がどのように振る舞うのかという理由と、これらの信念に最もよく反応する戦略的行動と、他者に対する明示的な信念に反応しない「レベル0」非戦略的行動とを区別する。
これは、データから非常に複雑なレベル0の仕様を学習するニューラルネットワークである。
現在の論文には3つの貢献がある。
まず、GameNetのレベル0仕様は、戦略的理由付けが可能なため、あまりにも強力であることを示している。
第二に、新しいニューラルネットワークアーキテクチャ(ベースネットと呼ばれる)を導入し、非ストラテジックな振る舞いしかできないことを証明している。
第3に、プライマリネットの広範な実験評価について述べる。
以上の結果から,(1)モデルがどちらのモデルも,モデルの予測に最も適さない高レベルエージェントを明示的にモデル化することが許されていない場合,(1)モデルの性能向上には戦略的推論が可能なモデルが必要であること,(2)高レベルエージェントの導入時に,2つのモデルが統計的に区別不可能な性能を達成できること,(2)モデルの性能が低下しないこと,(3)プリマルネットが従来の文献で導入されていたレベル0のビルディングブロックに制限された場合でも維持され続けていること,などが示唆された。
関連論文リスト
- Graph Mining under Data scarcity [6.229055041065048]
汎用グラフニューラルネットワーク(GNN)上に適用可能な不確実性推定フレームワークを提案する。
エンド・ツー・エンドの設定で、$n$-way、$k$-shotという古典的なエピソード学習パラダイムの下でこれらのモデルをトレーニングします。
提案手法は,GNNを用いたグラフ上のFew-shotノード分類における不確実性推定器の有効性を示すベースラインよりも優れる。
論文 参考訳(メタデータ) (2024-06-07T10:50:03Z) - A Dynamical Model of Neural Scaling Laws [79.59705237659547]
ネットワークトレーニングと一般化の解決可能なモデルとして,勾配降下で訓練されたランダムな特徴モデルを分析する。
我々の理論は、データの繰り返し再利用により、トレーニングとテスト損失のギャップが徐々に増大することを示している。
論文 参考訳(メタデータ) (2024-02-02T01:41:38Z) - Game-Theoretic Unlearnable Example Generator [18.686469222136854]
学習不可能な例攻撃は、トレーニングサンプルに知覚不能な摂動を加えることによって、ディープラーニングのクリーンなテスト精度を低下させることを目的としている。
本稿では,非ゼロ和スタックルバーグゲームとしてアタックを定式化することにより,ゲーム理論の観点からの未知の例攻撃について検討する。
本稿では,3つの主要な勾配を持つGUE(Game Unlearnable Example)と呼ばれる新たな攻撃手法を提案する。
論文 参考訳(メタデータ) (2024-01-31T00:43:30Z) - Layer-wise Linear Mode Connectivity [52.6945036534469]
ニューラルネットワークパラメータの平均化は、2つの独立したモデルの知識の直感的な方法である。
フェデレートラーニングにおいて最も顕著に用いられている。
私たちは、単一グループやグループを平均化するモデルの性能を分析します。
論文 参考訳(メタデータ) (2023-07-13T09:39:10Z) - NetHack is Hard to Hack [37.24009814390211]
NeurIPS 2021 NetHack Challengeでは、シンボリックエージェントは中央値のゲームスコアにおいて、ニューラルネットワークのアプローチを4倍以上に上回りました。
我々はNetHackのニューラルポリシー学習について広範な研究を行っている。
従来の完全なニューラルポリシーを127%のオフライン設定、25%のオンライン設定を中央値のゲームスコアで上回る最先端のニューラルエージェントを作成しました。
論文 参考訳(メタデータ) (2023-05-30T17:30:17Z) - Neural Additive Models for Location Scale and Shape: A Framework for
Interpretable Neural Regression Beyond the Mean [1.0923877073891446]
ディープニューラルネットワーク(DNN)は、様々なタスクで非常に効果的であることが証明されている。
この成功にもかかわらず、DNNの内部構造はしばしば透明ではない。
この解釈可能性の欠如は、本質的に解釈可能なニューラルネットワークの研究の増加につながった。
論文 参考訳(メタデータ) (2023-01-27T17:06:13Z) - Improved Convergence Guarantees for Shallow Neural Networks [91.3755431537592]
勾配降下法により訓練された深度2ニューラルネットの収束度を世界最小とする。
我々のモデルには、二次損失関数による回帰、完全連結フィードフォワードアーキテクチャ、RelUアクティベーション、ガウスデータインスタンス、逆ラベルといった特徴がある。
彼らは、少なくとも我々のモデルでは、収束現象がNTK体制をはるかに超越していることを強く示唆している」。
論文 参考訳(メタデータ) (2022-12-05T14:47:52Z) - Part-Based Models Improve Adversarial Robustness [57.699029966800644]
人間の事前知識とエンドツーエンドの学習を組み合わせることで、ディープニューラルネットワークの堅牢性を向上させることができることを示す。
我々のモデルは、部分分割モデルと小さな分類器を組み合わせて、オブジェクトを同時に部品に分割するようにエンドツーエンドに訓練されている。
実験の結果,これらのモデルによりテクスチャバイアスが低減され,一般的な汚職に対する堅牢性が向上し,相関が急上昇することが示唆された。
論文 参考訳(メタデータ) (2022-09-15T15:41:47Z) - Towards Disentangling Information Paths with Coded ResNeXt [11.884259630414515]
ネットワーク全体の機能の透明性を高めるために,我々は新しいアプローチを採っている。
分類のためのニューラルネットワークアーキテクチャを提案し、各クラスに関連する情報が特定の経路を流れる。
論文 参考訳(メタデータ) (2022-02-10T21:45:49Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - CompGuessWhat?!: A Multi-task Evaluation Framework for Grounded Language
Learning [78.3857991931479]
本稿では,属性を用いたグラウンドド言語学習のための評価フレームワークGROLLAを提案する。
また、学習したニューラル表現の品質を評価するためのフレームワークの例として、新しいデータセットCompGuessWhat!?を提案する。
論文 参考訳(メタデータ) (2020-06-03T11:21:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。