論文の概要: L2P: Learning to Place for Estimating Heavy-Tailed Distributed Outcomes
- arxiv url: http://arxiv.org/abs/1908.04628v3
- Date: Thu, 12 Oct 2023 17:19:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 16:00:03.743567
- Title: L2P: Learning to Place for Estimating Heavy-Tailed Distributed Outcomes
- Title(参考訳): l2p: 重み付き分散結果推定のための学習
- Authors: Xindi Wang, Onur Varol, Tina Eliassi-Rad
- Abstract要約: Learning to Placeは、学習のためのインスタンス間のペアワイズな関係を利用する。
L2Pは、重み付けされた結果分布を再現する精度と能力の点で競合するアプローチより優れている。
- 参考スコア(独自算出の注目度): 5.679304434091252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many real-world prediction tasks have outcome variables that have
characteristic heavy-tail distributions. Examples include copies of books sold,
auction prices of art pieces, demand for commodities in warehouses, etc. By
learning heavy-tailed distributions, "big and rare" instances (e.g., the
best-sellers) will have accurate predictions. Most existing approaches are not
dedicated to learning heavy-tailed distribution; thus, they heavily
under-predict such instances. To tackle this problem, we introduce Learning to
Place (L2P), which exploits the pairwise relationships between instances for
learning. In its training phase, L2P learns a pairwise preference classifier:
is instance A > instance B? In its placing phase, L2P obtains a prediction by
placing the new instance among the known instances. Based on its placement, the
new instance is then assigned a value for its outcome variable. Experiments on
real data show that L2P outperforms competing approaches in terms of accuracy
and ability to reproduce heavy-tailed outcome distribution. In addition, L2P
provides an interpretable model by placing each predicted instance in relation
to its comparable neighbors. Interpretable models are highly desirable when
lives and treasure are at stake.
- Abstract(参考訳): 多くの実世界の予測タスクは、特徴的な重み付き分布を持つ結果変数を持つ。
例えば、販売された書籍のコピー、美術品のオークション価格、倉庫の商品需要などである。
ヘビーテール分布を学習することで、"big and rare"インスタンス(例えばベストセラー)は正確な予測を行う。
既存のアプローチのほとんどは、ヘビーテールの分布を学習するためのものではない。
この問題に対処するために,学習インスタンス間の相互関係を利用したL2P(Learning to Place)を導入する。
トレーニングフェーズでは、l2pはペアワイズ選好分類器を学習する。 インスタンスa > インスタンスb?
配置フェーズでは、L2Pは既知のインスタンスに新しいインスタンスを配置することで予測を得る。
その配置に基づいて、新しいインスタンスはその結果変数の値が割り当てられる。
実データを用いた実験では、L2Pは重み付き結果分布を再現する精度と能力で競合するアプローチより優れていた。
さらに、L2Pは、予測された各インスタンスを、その類似する隣り合うものに配置することで解釈可能なモデルを提供する。
解釈可能なモデルは、生命と財宝が懸かっているときに非常に望ましい。
関連論文リスト
- Dynamic Uncertainty Ranking: Enhancing Retrieval-Augmented In-Context Learning for Long-Tail Knowledge in LLMs [50.29035873837]
大規模言語モデル(LLM)は、事前訓練中に多様なドメインから膨大な量の知識を学習することができる。
専門ドメインからの長い尾の知識は、しばしば不足し、表現されていないため、モデルの記憶にはほとんど現れない。
ICLの強化学習に基づく動的不確実性ランキング手法を提案する。
論文 参考訳(メタデータ) (2024-10-31T03:42:17Z) - Lessons Learned from a Unifying Empirical Study of Parameter-Efficient Transfer Learning (PETL) in Visual Recognition [36.031972728327894]
視覚変換器の文脈における代表的PETL法について検討した。
PETL法は低ショットのベンチマークVTAB-1Kでも同様の精度が得られる。
PETLは、多くのショットレシエーションでも有用であり、フルFTよりも同等で、時には精度が向上する。
論文 参考訳(メタデータ) (2024-09-24T19:57:40Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Ask Your Distribution Shift if Pre-Training is Right for You [67.90850628695563]
実際に、事前訓練されたモデルの微調整は、いくつかのケースではロバスト性を大幅に改善するが、他のケースではまったく改善しない。
分散シフト中のモデルの2つの障害モード – トレーニングデータの補間不足とバイアス – に注目する。
我々の研究は、親指の規則として、事前学習は、粗悪な外挿を緩和するがデータセットのバイアスを緩和する助けとなることを示唆している。
論文 参考訳(メタデータ) (2024-02-29T23:46:28Z) - Collaborative Learning with Different Labeling Functions [7.228285747845779]
我々は、$n$のデータ分布ごとに正確な分類器を学習することを目的とした、協調型PAC学習の亜種について研究する。
データ分布がより弱い実現可能性の仮定を満たす場合、サンプル効率の学習は依然として可能であることを示す。
論文 参考訳(メタデータ) (2024-02-16T04:32:22Z) - Predicting Rare Events by Shrinking Towards Proportional Odds [1.599072005190786]
先行段階のより豊富なデータは、希少事象の確率の推定を改善するために活用される可能性がある。
順序回帰に対する比例オッズモデルの緩和であるPRESTOを提案する。
PRESTO が決定境界重みを不規則に推定することを証明している。
論文 参考訳(メタデータ) (2023-05-30T02:50:08Z) - Toward Understanding Generative Data Augmentation [16.204251285425478]
生成データの増大は、発散項の順序が$o(maxleft( log(m)beta_m, 1 / sqrtm)right)$である場合、より高速に学習できることを示す。
いずれの場合も、生成データの増大は学習速度の速さを損なうものではないが、列車セットが小さい場合、一定のレベルで学習保証を改善することができることを証明している。
論文 参考訳(メタデータ) (2023-05-27T13:46:08Z) - Characterizing Datapoints via Second-Split Forgetting [93.99363547536392]
我々は、オリジナルのトレーニング例が忘れられた後(もしあれば)のエポックを追跡する補足的メトリックである$$-second-$split$$forgetting$$$time$ (SSFT)を提案する。
例えば$mislabeled$の例はすぐに忘れられ、$rare$の例は比較的ゆっくりと忘れられています。
SSFTは、(i)間違ったラベル付きサンプルを識別し、その除去により一般化が向上し、(ii)障害モードに関する洞察を提供する。
論文 参考訳(メタデータ) (2022-10-26T21:03:46Z) - Learning to Re-weight Examples with Optimal Transport for Imbalanced
Classification [74.62203971625173]
不均衡データは、ディープラーニングに基づく分類モデルに課題をもたらす。
不均衡なデータを扱うための最も広く使われているアプローチの1つは、再重み付けである。
本稿では,分布の観点からの最適輸送(OT)に基づく新しい再重み付け手法を提案する。
論文 参考訳(メタデータ) (2022-08-05T01:23:54Z) - Mind the Trade-off: Debiasing NLU Models without Degrading the
In-distribution Performance [70.31427277842239]
信頼性正則化という新しいデバイアス化手法を導入する。
モデルがバイアスを悪用するのを防ぐと同時に、トレーニングのすべての例から学ぶのに十分なインセンティブを得られるようにします。
提案手法を3つのNLUタスクで評価し,前者とは対照的に,アウト・オブ・ディストリビューション・データセットの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-05-01T11:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。