論文の概要: Calibrating an Imperfect Auxiliary Predictor for Unobserved No-Purchase Choice
- arxiv url: http://arxiv.org/abs/2602.11505v2
- Date: Fri, 13 Feb 2026 05:10:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 13:08:15.614684
- Title: Calibrating an Imperfect Auxiliary Predictor for Unobserved No-Purchase Choice
- Title(参考訳): 不完全補助予測器の無条件選択に対するキャリブレーション
- Authors: Jiangkai Xiong, Kalyan Talluri, Hanzhao Wang,
- Abstract要約: 企業が競争相手から購入するか、買わないか、会社のオファーを十分に考慮するか、といった、主要な消費者行動を見ることができないのが一般的である。
この外部オプション情報が欠落しているため、単純なマルチノミアルロジット(MNL)モデルであっても、市場規模と嗜好の推定が困難になる。
我々は,ブラックボックス補助予測器が外部オプションの確率を提供する相補的な設定について検討するが,異なるチャネル,期間,集団で訓練されたため,バイアスや誤判定の可能性がある。
我々は、これらの不完全予測を、焦点からの購入専用データを用いた統計的に有効なノン購入推定に変換するキャリブレーション手法を開発した。
- 参考スコア(独自算出の注目度): 1.5484595752241122
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Firms typically cannot observe key consumer actions: whether customers buy from a competitor, choose not to buy, or even fully consider the firm's offer. This missing outside-option information makes market-size and preference estimation difficult even in simple multinomial logit (MNL) models, and it is a central obstacle in practice when only transaction data are recorded. Existing approaches often rely on auxiliary market-share, aggregated, or cross-market data. We study a complementary setting in which a black-box auxiliary predictor provides outside-option probabilities, but is potentially biased or miscalibrated because it was trained in a different channel, period, or population, or produced by an external machine-learning system. We develop calibration methods that turn such imperfect predictions into statistically valid no-purchase estimates using purchase-only data from the focal environment. First, under affine miscalibration in logit space, we show that a simple regression identifies outside-option utility parameters and yields consistent recovery of no-purchase probabilities without collecting new labels for no-purchase events. Second, under a weaker nearly monotone condition, we propose a rank-based calibration method and derive finite-sample error bounds that cleanly separate auxiliary-predictor quality from first-stage utility-learning error over observed in-set choices. Our analysis also translates estimation error into downstream decision quality for assortment optimization, quantifying how calibration accuracy affects revenue performance. The bounds provide explicit dependence on predictor alignment and utility-learning error, clarifying when each source dominates. Numerical experiments demonstrate improvements in no-purchase estimation and downstream assortment decisions, and we discuss robust aggregation extensions for combining multiple auxiliary predictors.
- Abstract(参考訳): 企業が競争相手から購入するか、買わないか、会社のオファーを十分に考慮するか、といった、主要な消費者行動を見ることができないのが一般的である。
この欠落した外部オプション情報により、単純なマルチノミアルロジット(MNL)モデルであっても市場規模や嗜好の推定が困難になり、トランザクションデータのみを記録する場合の現実的な障害となる。
既存のアプローチは、しばしば補助的な市場シェア、集約、または市場横断のデータに依存している。
ブラックボックス補助予測器が外部オプションの確率を提供する相補的な設定について検討するが、異なるチャネル、期間、集団で訓練されたり、外部の機械学習システムによって生成されたりするため、バイアスや誤判定を受ける可能性がある。
我々は,このような不完全な予測を,焦点環境からの購入専用データを用いた統計的に有効な購入予測に変換するキャリブレーション手法を開発した。
まず,ロジット空間におけるアフィンの誤校正の下では,簡単な回帰法により外部選択効用パラメータを識別し,購入不要事象の新しいラベルを収集することなく,購入不能確率の一貫した回復が得られることを示す。
第2に、より弱い単調な条件下で、観測されたインセット選択に対する第1段階のユーティリティ学習誤差から補助予測器の品質をきれいに分離するランクベースの校正法と有限サンプル誤差境界を導出する。
また,評価誤差を下流判定品質に変換し,キャリブレーション精度が収益性に与える影響を定量化する。
境界は予測器のアライメントとユーティリティラーニングエラーに明示的に依存し、各ソースがいつ支配されるかを明確にする。
数値実験により,非購入推定と下流配置決定の改善を実証し,複数の補助予測器を組み合わせるための頑健な集約拡張について考察する。
関連論文リスト
- Non-exchangeable Conformal Prediction with Optimal Transport: Tackling Distribution Shifts with Unlabeled Data [13.788274786492286]
コンフォーマル予測は、分散のない不確実性定量化手法であり、機械学習コミュニティで人気を博している。
最も一般的な変種であるスプリット共形予測は、モデルがまだ見ていないキャリブレーションデータに基づくモデル予測の統計を収集するため、計算的に効率的である。
対象範囲の損失を推定し,任意の分布シフトを緩和し,原理的かつ広く適用可能なソリューションを提供することが可能であることを示す。
論文 参考訳(メタデータ) (2025-07-14T16:10:55Z) - Parametric $ρ$-Norm Scaling Calibration [8.583311125489942]
出力の不確実性は、確率的特性がモデル出力の客観的特性を反映しているかどうかを示す。
本稿では,処理後パラメトリックキャリブレーション法である$rho$-Norm Scalingを導入し,キャリブレータ表現を拡張し,過度な振幅による過信を緩和する。
論文 参考訳(メタデータ) (2024-12-19T10:42:11Z) - Provably Reliable Conformal Prediction Sets in the Presence of Data Poisoning [53.42244686183879]
コンフォーマル予測は、モデルに依存しない、分布のない不確実性定量化を提供する。
しかし、敵が訓練データと校正データを操作した場合の毒殺攻撃では、共形予測は信頼性が低い。
信頼性予測セット (RPS): 汚染下での信頼性保証を証明可能な共形予測セットを構築するための最初の効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-13T15:37:11Z) - Confidence-Aware Multi-Field Model Calibration [39.44356123378625]
フィールド対応キャリブレーションは、異なる特徴フィールド値のモデル出力を調整することで、きめ細かい広告要求を満たすことができる。
本稿では,サンプル統計から得られた信頼度に基づいてキャリブレーション強度を適応的に調整する,信頼性を考慮したマルチフィールドキャリブレーション手法を提案する。
論文 参考訳(メタデータ) (2024-02-27T16:24:28Z) - Instant Uncertainty Calibration of NeRFs Using a Meta-calibrator [60.47106421809998]
我々は,1つの前方パスを持つNeRFに対して不確実な校正を行うメタ校正器の概念を導入する。
メタキャリブレータは、見えないシーンを一般化し、NeRFの良好な校正と最先端の不確実性を実現できることを示す。
論文 参考訳(メタデータ) (2023-12-04T21:29:31Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - Distribution-free uncertainty quantification for classification under
label shift [105.27463615756733]
2つの経路による分類問題に対する不確実性定量化(UQ)に焦点を当てる。
まず、ラベルシフトはカバレッジとキャリブレーションの低下を示すことでuqを損なうと論じる。
これらの手法を, 理論上, 分散性のない枠組みで検討し, その優れた実用性を示す。
論文 参考訳(メタデータ) (2021-03-04T20:51:03Z) - Individual Calibration with Randomized Forecasting [116.2086707626651]
予測値がランダムに設定された場合,各サンプルのキャリブレーションは回帰設定で可能であることを示す。
我々は、個別の校正を強制する訓練目標を設計し、それをランダム化された回帰関数の訓練に使用する。
論文 参考訳(メタデータ) (2020-06-18T05:53:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。