論文の概要: Binary Choice with Asymmetric Loss in a Data-Rich Environment: Theory
and an Application to Racial Justice
- arxiv url: http://arxiv.org/abs/2010.08463v5
- Date: Sat, 6 Nov 2021 17:45:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 22:17:09.772550
- Title: Binary Choice with Asymmetric Loss in a Data-Rich Environment: Theory
and an Application to Racial Justice
- Title(参考訳): データリッチ環境における非対称損失のある二項選択:理論と社会的正義への応用
- Authors: Andrii Babii and Xi Chen and Eric Ghysels and Rohit Kumar
- Abstract要約: 非対称な損失関数を持つデータリッチ環境における二項選択問題について検討する。
本稿では、ロジスティック回帰法や最先端の機械学習手法の単純な損失に基づく再重み付けにより、一般損失関数を伴う二項帰結に関する理論的に妥当な決定が達成可能であることを示す。
- 参考スコア(独自算出の注目度): 5.045206257082916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the binary choice problem in a data-rich environment with asymmetric
loss functions. The econometrics literature covers nonparametric binary choice
problems but does not offer computationally attractive solutions in data-rich
environments. The machine learning literature has many algorithms but is
focused mostly on loss functions that are independent of covariates. We show
that theoretically valid decisions on binary outcomes with general loss
functions can be achieved via a very simple loss-based reweighting of the
logistic regression or state-of-the-art machine learning techniques. We apply
our analysis to racial justice in pretrial detention.
- Abstract(参考訳): 非対称損失関数を持つデータリッチ環境における二項選択問題について検討する。
econometrics literatureは非パラメトリックなバイナリ選択問題をカバーしているが、データ豊富な環境では計算的に魅力的なソリューションを提供していない。
機械学習の文献には多くのアルゴリズムがあるが、主に共変量とは独立な損失関数に焦点を当てている。
一般損失関数を持つ二進結果に関する理論的に妥当な決定は、ロジスティック回帰や最先端機械学習手法の非常に単純なロスベース再重み付けによって達成できることを示す。
我々は裁判前拘留における人種的正義に分析を適用する。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - LEARN: An Invex Loss for Outlier Oblivious Robust Online Optimization [56.67706781191521]
敵は、学習者に未知の任意の数kの損失関数を破損させることで、外れ値を導入することができる。
我々は,任意の数kで損失関数を破損させることで,敵が外乱を発生させることができる,頑健なオンラインラウンド最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-12T17:08:31Z) - Provable Optimization for Adversarial Fair Self-supervised Contrastive Learning [49.417414031031264]
本稿では,自己教師型学習環境におけるフェアエンコーダの学習について検討する。
すべてのデータはラベル付けされておらず、そのごく一部だけが機密属性で注釈付けされている。
論文 参考訳(メタデータ) (2024-06-09T08:11:12Z) - Optimal and Efficient Binary Questioning for Human-in-the-Loop
Annotation [11.4375764457726]
本稿では,アノテートされたデータに予測器を付与するという,無視された相補的問題を考察する。
単純な二項分類設定では、最適一般解から実用的な方法まで幅広いスペクトルを提示する。
論文 参考訳(メタデータ) (2023-07-04T09:11:33Z) - A survey and taxonomy of loss functions in machine learning [51.35995529962554]
本稿では, 回帰, 分類, 生成モデル, ランキング, エネルギーベースモデリングなど, 主要なアプリケーションにまたがる最も広く使われている損失関数について概観する。
直感的な分類法で構築された43個の個別の損失関数を導入し,それらの理論的基礎,特性,最適な適用状況を明らかにした。
論文 参考訳(メタデータ) (2023-01-13T14:38:24Z) - Xtreme Margin: A Tunable Loss Function for Binary Classification
Problems [0.0]
本稿では,新しい損失関数 Xtreme Margin の損失関数について概説する。
二進的クロスエントロピーやヒンジ損失関数とは異なり、この損失関数は研究者や実践者がトレーニングプロセスに柔軟性をもたらす。
論文 参考訳(メタデータ) (2022-10-31T22:39:32Z) - Reduced Implication-bias Logic Loss for Neuro-Symbolic Learning [11.343715006460577]
異なる演算子は、バックプロパゲーション中に有意なバイアスをもたらし、ニューロ・シンボリック学習の性能を低下させる可能性がある。
本稿では,バイアス付き損失関数をtextitReduced Implication-bias Logic Loss に変換する方法を提案する。
経験的研究により、RILLはバイアスド論理損失関数よりも大幅に改善できることが示された。
論文 参考訳(メタデータ) (2022-08-14T11:57:46Z) - A Symmetric Loss Perspective of Reliable Machine Learning [87.68601212686086]
平衡誤差率 (BER) の最小化において, 対称損失が破損ラベルからのロバストな分類をいかに生み出すかを検討する。
我々は、関連するキーワードからのみ学習したい問題において、AUC手法が自然言語処理にどのように役立つかを実証する。
論文 参考訳(メタデータ) (2021-01-05T06:25:47Z) - Provable tradeoffs in adversarially robust classification [96.48180210364893]
我々は、ロバストなイソペリメトリに関する確率論の最近のブレークスルーを含む、新しいツールを開発し、活用する。
この結果から,データの不均衡時に増加する標準精度とロバスト精度の基本的なトレードオフが明らかになった。
論文 参考訳(メタデータ) (2020-06-09T09:58:19Z) - All your loss are belong to Bayes [28.393499629583786]
ロス関数は機械学習の基盤であり、ほとんどのアルゴリズムの出発点である。
正方形ガウス過程を用いて経路が整合なソース関数を持つランダムな過程を求める。
実験の結果は、最先端技術よりも大幅に改善された。
論文 参考訳(メタデータ) (2020-06-08T14:31:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。