論文の概要: How to Evaluate Behavioral Models
- arxiv url: http://arxiv.org/abs/2306.04778v2
- Date: Fri, 23 Feb 2024 00:59:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 18:15:43.805205
- Title: How to Evaluate Behavioral Models
- Title(参考訳): 行動モデルの評価方法
- Authors: Greg d'Eon, Sophie Greenwood, Kevin Leyton-Brown, and James R. Wright
- Abstract要約: 我々は損失関数が満足すべきであると主張する公理を定式化する。
実際に使われている多くの損失関数を除外するが、特に正方形L2誤差を含む。
- 参考スコア(独自算出の注目度): 11.093095696026861
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Researchers building behavioral models, such as behavioral game theorists,
use experimental data to evaluate predictive models of human behavior. However,
there is little agreement about which loss function should be used in
evaluations, with error rate, negative log-likelihood, cross-entropy, Brier
score, and squared L2 error all being common choices. We attempt to offer a
principled answer to the question of which loss functions should be used for
this task, formalizing axioms that we argue loss functions should satisfy. We
construct a family of loss functions, which we dub "diagonal bounded Bregman
divergences", that satisfy all of these axioms. These rule out many loss
functions used in practice, but notably include squared L2 error; we thus
recommend its use for evaluating behavioral models.
- Abstract(参考訳): 行動ゲーム理論家のような行動モデルを構築する研究者は、人間の行動の予測モデルを評価する実験データを使用する。
しかし, 誤差率, 負の対数類似度, クロスエントロピー, ブライアスコア, 正方形L2誤差など, いずれの損失関数を用いるべきかは, ほぼ一致していない。
我々は、損失関数が満足すべきものであると主張する公理を定式化し、このタスクにどの損失関数を使用するべきかという問題に対する原理的な答えを提供しようとする。
我々は損失関数の族を構築し、これら全ての公理を満たす「対角有界ブレグマン発散」を仮定する。
これらは、実際に使用される多くの損失関数を除外するが、特に二乗L2誤差を含む。
関連論文リスト
- Loss Functions and Operators Generated by f-Divergences [21.58093510003414]
本稿では,$f$-divergencesに基づいて新しい凸損失関数を構築することを提案する。
ロジスティック損失と類似して、$f$-divergenceによって生成される損失関数は演算子と関連付けられ、$f$-softargmax をダブする。
本研究の目的は,言語モデル設定における古典的クロスエントロピーを超えた損失関数の有効性を決定することである。
論文 参考訳(メタデータ) (2025-01-30T18:06:18Z) - Partial Identifiability and Misspecification in Inverse Reinforcement Learning [64.13583792391783]
Inverse Reinforcement Learning の目的は、報酬関数 $R$ をポリシー $pi$ から推論することである。
本稿では,IRLにおける部分的識別性と不特定性について包括的に分析する。
論文 参考訳(メタデータ) (2024-11-24T18:35:46Z) - Quantifying the Sensitivity of Inverse Reinforcement Learning to
Misspecification [72.08225446179783]
逆強化学習は、エージェントの行動からエージェントの好みを推測することを目的としている。
これを行うには、$pi$が$R$とどのように関係しているかの振る舞いモデルが必要です。
我々は、IRL問題が行動モデルの不特定性にどれほど敏感であるかを分析する。
論文 参考訳(メタデータ) (2024-03-11T16:09:39Z) - Representation Surgery: Theory and Practice of Affine Steering [72.61363182652853]
言語モデルは、しばしば好ましくない振る舞いを示す。
モデルが望ましくない振る舞いを示すのを防ぐための自然な(そして一般的な)アプローチの1つは、モデルの表現を操ることである。
本稿では, ステアリング機能の形式的および経験的特性について検討する。
論文 参考訳(メタデータ) (2024-02-15T00:20:30Z) - Leaving the Nest: Going Beyond Local Loss Functions for
Predict-Then-Optimize [57.22851616806617]
本手法は,文献から得られた4つの領域において,最先端の成果が得られることを示す。
提案手法は, 局所性仮定が破られた場合, 既存手法よりも200%近く性能が向上する。
論文 参考訳(メタデータ) (2023-05-26T11:17:45Z) - Xtreme Margin: A Tunable Loss Function for Binary Classification
Problems [0.0]
本稿では,新しい損失関数 Xtreme Margin の損失関数について概説する。
二進的クロスエントロピーやヒンジ損失関数とは異なり、この損失関数は研究者や実践者がトレーニングプロセスに柔軟性をもたらす。
論文 参考訳(メタデータ) (2022-10-31T22:39:32Z) - Inference on Strongly Identified Functionals of Weakly Identified
Functions [71.42652863687117]
本研究では,ニュアンス関数が存在しない場合でも,関数を強く識別するための新しい条件について検討する。
本稿では,プライマリおよびデバイアスのニュアンス関数に対するペナル化ミニマックス推定器を提案する。
論文 参考訳(メタデータ) (2022-08-17T13:38:31Z) - On Codomain Separability and Label Inference from (Noisy) Loss Functions [11.780563744330038]
本稿では,任意の(ノイズの多い)損失関数値からラベル推論が可能となる必要かつ十分な条件を検討するために,コドメイン分離性の概念を導入する。
一般的なアクティベーション機能を持つマルチクラスクロスエントロピーや,ブレグマンの発散に基づく損失を含む,多くの一般的な損失関数に対して,任意の雑音レベルに対するラベル推論攻撃を設計可能であることを示す。
論文 参考訳(メタデータ) (2021-07-07T05:29:53Z) - Causal Inference Under Unmeasured Confounding With Negative Controls: A
Minimax Learning Approach [84.29777236590674]
すべての共同設立者が観察されず、代わりに負の制御が利用可能である場合の因果パラメータの推定について検討する。
最近の研究は、2つのいわゆるブリッジ関数による同定と効率的な推定を可能にする方法を示している。
論文 参考訳(メタデータ) (2021-03-25T17:59:19Z) - Classification vs regression in overparameterized regimes: Does the loss
function matter? [21.75115239010008]
最小二乗最小ノルムで得られる解は、通常回帰に使用されるもので、ハードマージン支援ベクトルマシン(SVM)が生成したものと同一であることを示す。
本研究は, トレーニングフェーズ(最適化)とテストフェーズ(一般化)において, 損失関数の役割と特性が全く異なることを示すものである。
論文 参考訳(メタデータ) (2020-05-16T17:58:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。