論文の概要: Online Learning with Primary and Secondary Losses
- arxiv url: http://arxiv.org/abs/2010.14670v1
- Date: Tue, 27 Oct 2020 23:50:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 11:30:17.893302
- Title: Online Learning with Primary and Secondary Losses
- Title(参考訳): 1次および2次損失を伴うオンライン学習
- Authors: Avrim Blum, Han Shao
- Abstract要約: 初等・二次的損失を伴うオンライン学習の課題について検討する。
第一の損失に関して、低い後悔を達成するために“専門家のアドバイス”を組み合わせることはできますか?
- 参考スコア(独自算出の注目度): 29.540528603828722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of online learning with primary and secondary losses.
For example, a recruiter making decisions of which job applicants to hire might
weigh false positives and false negatives equally (the primary loss) but the
applicants might weigh false negatives much higher (the secondary loss). We
consider the following question: Can we combine "expert advice" to achieve low
regret with respect to the primary loss, while at the same time performing {\em
not much worse than the worst expert} with respect to the secondary loss?
Unfortunately, we show that this goal is unachievable without any bounded
variance assumption on the secondary loss. More generally, we consider the goal
of minimizing the regret with respect to the primary loss and bounding the
secondary loss by a linear threshold. On the positive side, we show that
running any switching-limited algorithm can achieve this goal if all experts
satisfy the assumption that the secondary loss does not exceed the linear
threshold by $o(T)$ for any time interval. If not all experts satisfy this
assumption, our algorithms can achieve this goal given access to some external
oracles which determine when to deactivate and reactivate experts.
- Abstract(参考訳): 第1次および第2次損失を伴うオンライン学習の問題について検討する。
例えば、求職者がどの職種を雇用するかを判断する採用者は、偽陽性と偽陰性(一次損失)を等しく重み付けするが、求職者は偽陰性(二次損失)をはるかに重み付けする。
第一の損失については「専門家のアドバイス」を組み合わさって、第二の損失については、同時に、最悪の専門家よりも劣悪なパフォーマンスを達成できますか?
残念なことに、この目標は二次損失に対する有界分散仮定なしでは達成できない。
より一般的には、一次損失に対する後悔を最小限に抑え、二次損失を線形閾値で制限する目的を考察する。
正の面では、すべての専門家が二次損失が任意の時間間隔でo(t)$の線形しきい値を超えないという仮定を満たせば、スイッチング制限アルゴリズムを実行することでこの目標を達成できることを示す。
すべての専門家がこの仮定を満たしていない場合、我々のアルゴリズムは、専門家を非活性化し、反応させるタイミングを決定する外部のオラクルへのアクセスによって、この目標を達成することができる。
関連論文リスト
- LEARN: An Invex Loss for Outlier Oblivious Robust Online Optimization [56.67706781191521]
敵は、学習者に未知の任意の数kの損失関数を破損させることで、外れ値を導入することができる。
我々は,任意の数kで損失関数を破損させることで,敵が外乱を発生させることができる,頑健なオンラインラウンド最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-12T17:08:31Z) - Proper losses regret at least 1/2-order [1.7986307635828565]
我々は、損失の厳密な正当性は、非空きサロゲート的後悔境界を確立するのに十分であることを示す。
また、p-ノルムにおける収束の順序は、厳密な適切な損失の幅広いクラスに対する1/2$のサロゲート後悔の順序よりは高速ではないことを示す。
論文 参考訳(メタデータ) (2024-07-15T03:46:15Z) - Learning to Cover: Online Learning and Optimization with Irreversible Decisions [50.5775508521174]
後悔は$Thetaleft(mfrac12cdotfrac11-2-Tright)$で半直線的に成長するので、指数関数的に$Theta(sqrtm)$に収束する。
これらの調査結果は、限定的なオンライン学習と最適化の利点を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-06-20T23:00:25Z) - Multi-Agent Imitation Learning: Value is Easy, Regret is Hard [52.31989962031179]
我々は,エージェント群を協調させようとする学習者の視点で,マルチエージェント模倣学習(MAIL)問題を研究する。
MAILの以前の作業のほとんどは、基本的には、デモのサポート内で専門家の振る舞いにマッチする問題を減らすものです。
エージェントが戦略的でないという仮定の下で、学習者と専門家の間の価値ギャップをゼロにするのに十分であるが、戦略的エージェントによる逸脱を保証するものではない。
論文 参考訳(メタデータ) (2024-06-06T16:18:20Z) - Balancing Adaptability and Non-exploitability in Repeated Games [29.04618208068207]
複数のクラスのうちの1つで、未知のメンバシップを持つ対戦相手に対して、繰り返しのゲームにおいて、低後悔を保証する問題について検討する。
我々は,我々のアルゴリズムが探索不可能であるという制約を加味し,対戦相手が「公正」な値を超える報酬を達成できないアルゴリズムを使用する動機を欠いていることを付け加える。
我々の解法は,各クラスに最適である一連のサブアルゴリズム内を探索し,相手による搾取の証拠を検出するための罰則を用いる専門家アルゴリズム (LAFF) である。
論文 参考訳(メタデータ) (2021-12-20T03:09:30Z) - Mixing between the Cross Entropy and the Expectation Loss Terms [89.30385901335323]
クロスエントロピー損失は、トレーニング中にサンプルを分類するのが難しくなる傾向にある。
最適化目標に期待損失を加えることで,ネットワークの精度が向上することを示す。
実験により,新しいトレーニングプロトコルにより,多様な分類領域における性能が向上することが示された。
論文 参考訳(メタデータ) (2021-09-12T23:14:06Z) - Being Properly Improper [36.52509571098292]
正当性を剥奪された場合、類型的確率に基づく損失を分析する。
S. Arimoto が導入した半世紀の古い損失の自然な延長は、ねじれ固有であることを示す。
次に、適切な損失を減らし、加速するために、最も優れたオフザシェルフアルゴリズムをいくつか提供した理論に目を向けます。
論文 参考訳(メタデータ) (2021-06-18T05:00:15Z) - Online non-convex optimization with imperfect feedback [33.80530308979131]
非損失を伴うオンライン学習の問題を考える。
フィードバックの観点からは、学習者が各段階における損失関数の不正確なモデル(または構成)を観測すると仮定する。
本稿では,二元平均化に基づく混合戦略学習政策を提案する。
論文 参考訳(メタデータ) (2020-10-16T16:53:13Z) - Optimally Deceiving a Learning Leader in Stackelberg Games [123.14187606686006]
MLコミュニティの最近の結果は、リーダーがStackelbergゲームでコミットする最適な戦略を計算するために使用される学習アルゴリズムが、フォロワーによる操作に影響を受けやすいことを明らかにしている。
本稿は、リーダーとフォロワー間の学習相互作用に関する様々なシナリオにおいて、フォロワーが(最適に近い)ペイオフを計算することは、常に可能であることを示す。
論文 参考訳(メタデータ) (2020-06-11T16:18:21Z) - Calibrated Surrogate Losses for Adversarially Robust Classification [92.37268323142307]
線形モデルに制限された場合の逆0-1損失に対して凸代理損失は考慮されないことを示す。
また,Massartの雑音条件を満たす場合,対向条件下では凸損失も校正可能であることを示す。
論文 参考訳(メタデータ) (2020-05-28T02:40:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。