論文の概要: Loss Functions for Behavioral Game Theory
- arxiv url: http://arxiv.org/abs/2306.04778v1
- Date: Wed, 7 Jun 2023 20:53:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 17:31:51.417863
- Title: Loss Functions for Behavioral Game Theory
- Title(参考訳): 行動ゲーム理論における損失関数
- Authors: Greg d'Eon, Sophie Greenwood, Kevin Leyton-Brown, and James Wright
- Abstract要約: 損失関数は負の対数類似度、クロスエントロピー、ブライアスコア、L2誤差を満足すべきである。
これらの公理を全て満たし、二乗L2誤差を含む損失関数の族を構築する。
実際、二乗L2誤差は、実際には比較的一般的に使われている唯一の許容される損失である。
- 参考スコア(独自算出の注目度): 12.660281166796246
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Behavioral game theorists all use experimental data to evaluate predictive
models of human behavior. However, they differ greatly in their choice of loss
function for these evaluations, with error rate, negative log-likelihood,
cross-entropy, Brier score, and L2 error all being common choices. We attempt
to offer a principled answer to the question of which loss functions make sense
for this task, formalizing desiderata that we argue loss functions should
satisfy. We construct a family of loss functions, which we dub "diagonal
bounded Bregman divergences", that satisfy all of these axioms and includes the
squared L2 error. In fact, the squared L2 error is the only acceptable loss
that is relatively commonly used in practice; we thus recommend its continued
use to behavioral game theorists.
- Abstract(参考訳): 行動ゲーム理論者はみな、人間の行動の予測モデルを評価するために実験データを使用する。
しかし、これらの評価における損失関数の選択は、誤差率、負の対数類似度、クロスエントロピー、ブライアスコア、L2エラーが共通の選択であるなど、大きく異なる。
我々は、損失関数がこのタスクにどのような意味を持つかという問題に対する原理的な答えを提供し、損失関数が満足すべきであると主張するデシデラタを形式化しようとする。
我々は、これらの公理を全て満たし、正方形L2誤差を含む「対角有界ブレグマン発散」をダブする損失関数の族を構築する。
実際、二乗l2エラーは、実際に比較的一般的に使用される唯一の許容される損失であり、行動ゲーム理論家への継続使用を推奨する。
関連論文リスト
- Partial Identifiability and Misspecification in Inverse Reinforcement Learning [64.13583792391783]
Inverse Reinforcement Learning の目的は、報酬関数 $R$ をポリシー $pi$ から推論することである。
本稿では,IRLにおける部分的識別性と不特定性について包括的に分析する。
論文 参考訳(メタデータ) (2024-11-24T18:35:46Z) - Binary Losses for Density Ratio Estimation [2.512309434783062]
2つの確率密度の比率を推定することは、機械学習と統計学における中心的な問題である。
本稿では,大きな値の正確な推定を優先する損失関数など,特定の特性を持つ損失関数を構築するための簡単なレシピを提案する。
これはロジスティック損失やロジスティック損失などの古典的損失関数とは対照的であり、小さな値の正確な推定を優先する。
論文 参考訳(メタデータ) (2024-07-01T15:24:34Z) - Quantifying the Sensitivity of Inverse Reinforcement Learning to
Misspecification [72.08225446179783]
逆強化学習は、エージェントの行動からエージェントの好みを推測することを目的としている。
これを行うには、$pi$が$R$とどのように関係しているかの振る舞いモデルが必要です。
我々は、IRL問題が行動モデルの不特定性にどれほど敏感であるかを分析する。
論文 参考訳(メタデータ) (2024-03-11T16:09:39Z) - Representation Surgery: Theory and Practice of Affine Steering [72.61363182652853]
言語モデルは、しばしば好ましくない振る舞いを示す。
モデルが望ましくない振る舞いを示すのを防ぐための自然な(そして一般的な)アプローチの1つは、モデルの表現を操ることである。
本稿では, ステアリング機能の形式的および経験的特性について検討する。
論文 参考訳(メタデータ) (2024-02-15T00:20:30Z) - Leaving the Nest: Going Beyond Local Loss Functions for
Predict-Then-Optimize [57.22851616806617]
本手法は,文献から得られた4つの領域において,最先端の成果が得られることを示す。
提案手法は, 局所性仮定が破られた場合, 既存手法よりも200%近く性能が向上する。
論文 参考訳(メタデータ) (2023-05-26T11:17:45Z) - Xtreme Margin: A Tunable Loss Function for Binary Classification
Problems [0.0]
本稿では,新しい損失関数 Xtreme Margin の損失関数について概説する。
二進的クロスエントロピーやヒンジ損失関数とは異なり、この損失関数は研究者や実践者がトレーニングプロセスに柔軟性をもたらす。
論文 参考訳(メタデータ) (2022-10-31T22:39:32Z) - Inference on Strongly Identified Functionals of Weakly Identified
Functions [71.42652863687117]
本研究では,ニュアンス関数が存在しない場合でも,関数を強く識別するための新しい条件について検討する。
本稿では,プライマリおよびデバイアスのニュアンス関数に対するペナル化ミニマックス推定器を提案する。
論文 参考訳(メタデータ) (2022-08-17T13:38:31Z) - On Codomain Separability and Label Inference from (Noisy) Loss Functions [11.780563744330038]
本稿では,任意の(ノイズの多い)損失関数値からラベル推論が可能となる必要かつ十分な条件を検討するために,コドメイン分離性の概念を導入する。
一般的なアクティベーション機能を持つマルチクラスクロスエントロピーや,ブレグマンの発散に基づく損失を含む,多くの一般的な損失関数に対して,任意の雑音レベルに対するラベル推論攻撃を設計可能であることを示す。
論文 参考訳(メタデータ) (2021-07-07T05:29:53Z) - Causal Inference Under Unmeasured Confounding With Negative Controls: A
Minimax Learning Approach [84.29777236590674]
すべての共同設立者が観察されず、代わりに負の制御が利用可能である場合の因果パラメータの推定について検討する。
最近の研究は、2つのいわゆるブリッジ関数による同定と効率的な推定を可能にする方法を示している。
論文 参考訳(メタデータ) (2021-03-25T17:59:19Z) - Classification vs regression in overparameterized regimes: Does the loss
function matter? [21.75115239010008]
最小二乗最小ノルムで得られる解は、通常回帰に使用されるもので、ハードマージン支援ベクトルマシン(SVM)が生成したものと同一であることを示す。
本研究は, トレーニングフェーズ(最適化)とテストフェーズ(一般化)において, 損失関数の役割と特性が全く異なることを示すものである。
論文 参考訳(メタデータ) (2020-05-16T17:58:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。