論文の概要: Causal inference and model explainability tools for retail
- arxiv url: http://arxiv.org/abs/2512.12605v1
- Date: Sun, 14 Dec 2025 09:02:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.342359
- Title: Causal inference and model explainability tools for retail
- Title(参考訳): 小売業における因果推論とモデル説明可能性ツール
- Authors: Pranav Gupta, Nithin Surendran,
- Abstract要約: 本研究の目的は,販売インサイトを導出するためのモデル解釈可能性と因果推論を適用したレシピを提供することである。
本質的に説明可能なモデルは、SHAP値のばらつきが低く、二重機械学習アプローチによる複数の共同設立者を含めることで、因果効果の正しい兆候を得ることができることを示す。
- 参考スコア(独自算出の注目度): 2.559284388053301
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Most major retailers today have multiple divisions focused on various aspects, such as marketing, supply chain, online customer experience, store customer experience, employee productivity, and vendor fulfillment. They also regularly collect data corresponding to all these aspects as dashboards and weekly/monthly/quarterly reports. Although several machine learning and statistical techniques have been in place to analyze and predict key metrics, such models typically lack interpretability. Moreover, such techniques also do not allow the validation or discovery of causal links. In this paper, we aim to provide a recipe for applying model interpretability and causal inference for deriving sales insights. In this paper, we review the existing literature on causal inference and interpretability in the context of problems in e-commerce and retail, and apply them to a real-world dataset. We find that an inherently explainable model has a lower variance of SHAP values, and show that including multiple confounders through a double machine learning approach allows us to get the correct sign of causal effect.
- Abstract(参考訳): 現在、ほとんどの大手小売店は、マーケティング、サプライチェーン、オンライン顧客エクスペリエンス、ストア顧客エクスペリエンス、従業員の生産性、ベンダーのフルフィルメントなど、さまざまな側面に重点を置いている。
また、ダッシュボードや毎週、月毎、四半期毎のレポートとして、これらすべての側面に対応するデータを定期的に収集する。
主要なメトリクスを分析し、予測するための機械学習と統計技術がいくつかあるが、そのようなモデルは一般的に解釈可能性に欠ける。
さらに、このような手法は因果関係の検証や発見を許さない。
本稿では,販売インサイトを導出するためのモデル解釈可能性と因果推論を適用するためのレシピを提案する。
本稿では,電子商取引と小売の問題点の文脈における因果推論と解釈可能性に関する既存の文献をレビューし,それらを実世界のデータセットに適用する。
本質的に説明可能なモデルは、SHAP値のばらつきが低く、二重機械学習アプローチによる複数の共同設立者を含めることで、因果効果の正しい兆候を得ることができることを示す。
関連論文リスト
- A Study of Data-driven Methods for Inventory Optimization [0.0]
本稿では、時系列、ランダムフォレスト(RF)、ディープ強化学習(Deep Reinforcement Learning)の3つのアルゴリズムを3つのインベントリモデルに包括的に分析する。
主な目的は、データ駆動型の効率的なメソッドを分析することである。
各モデルの結果を比較することにより、各アルゴリズムの有効性を評価する。
論文 参考訳(メタデータ) (2025-05-13T15:35:23Z) - Fairness Hub Technical Briefs: Definition and Detection of Distribution Shift [0.5825410941577593]
分散シフトは機械学習タスクにおいて一般的な状況であり、モデルのトレーニングに使用されるデータは、モデルが現実世界に適用されるデータとは異なる。
本稿では,教育環境における分布変化の定義と検出に焦点をあてる。
論文 参考訳(メタデータ) (2024-05-23T05:29:36Z) - Multimodal Deep Learning of Word-of-Mouth Text and Demographics to
Predict Customer Rating: Handling Consumer Heterogeneity in Marketing [0.0]
今日、多くの消費者がオンラインプラットフォーム上で特定の製品の評価を投稿している。
本研究では,オンライン製品レビューと消費者プロファイル情報のマルチモーダル学習により,消費者の不均一性を考慮した製品評価モデルを構築した。
論文 参考訳(メタデータ) (2024-01-22T12:28:50Z) - Robust Computer Vision in an Ever-Changing World: A Survey of Techniques
for Tackling Distribution Shifts [20.17397328893533]
AIアプリケーションは、ますます一般大衆に注目を集めている。
コンピュータビジョンモデルに関する理論的な仮定と、それらのモデルが現実世界に展開する際に直面する現実との間には、顕著なギャップがある。
このギャップの重要な理由の1つは、分散シフトとして知られる難しい問題である。
論文 参考訳(メタデータ) (2023-12-03T23:40:12Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Towards a Rigorous Evaluation of Explainability for Multivariate Time
Series [5.786452383826203]
本研究では,時系列予測問題におけるモデル非依存な説明可能性の実現と評価を行った。
その解決策は、販売契約を予測する時系列予測問題として問題をフレーミングすることであった。
LIMEとSHAPによる説明は、機械学習モデルによる予測を理解する上で、人間を大いに助けた。
論文 参考訳(メタデータ) (2021-04-06T17:16:36Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。