論文の概要: A Two-Part Machine Learning Approach to Characterizing Network Interference in A/B Testing
- arxiv url: http://arxiv.org/abs/2308.09790v2
- Date: Sat, 29 Jun 2024 05:28:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-02 18:00:11.283013
- Title: A Two-Part Machine Learning Approach to Characterizing Network Interference in A/B Testing
- Title(参考訳): A/Bテストにおけるネットワーク干渉評価のための2部機械学習手法
- Authors: Yuan Yuan, Kristen M. Altenburger,
- Abstract要約: 本稿では,「因果ネットワークモチーフ」を導入し,透過的な機械学習モデルを用いてネットワーク干渉パターンを特徴付ける。
私たちのアプローチは、A/Bテスト実践者のネットワーク干渉に対処するための、包括的で自動化されたソリューションを提供します。
- 参考スコア(独自算出の注目度): 4.000213034401085
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The reliability of controlled experiments, commonly referred to as "A/B tests," is often compromised by network interference, where the outcomes of individual units are influenced by interactions with others. Significant challenges in this domain include the lack of accounting for complex social network structures and the difficulty in suitably characterizing network interference. To address these challenges, we propose a machine learning-based method. We introduce "causal network motifs" and utilize transparent machine learning models to characterize network interference patterns underlying an A/B test on networks. Our method's performance has been demonstrated through simulations on both a synthetic experiment and a large-scale test on Instagram. Our experiments show that our approach outperforms conventional methods such as design-based cluster randomization and conventional analysis-based neighborhood exposure mapping. Our approach provides a comprehensive and automated solution to address network interference for A/B testing practitioners. This aids in informing strategic business decisions in areas such as marketing effectiveness and product customization.
- Abstract(参考訳): 一般に「A/Bテスト」と呼ばれる制御実験の信頼性は、ネットワーク干渉によって損なわれ、個々のユニットの結果は他のユニットとの相互作用に影響される。
この領域における重要な課題は、複雑なソーシャルネットワーク構造に対する説明の欠如と、ネットワーク干渉を適切に特徴づけることの難しさである。
これらの課題に対処するために,機械学習に基づく手法を提案する。
ネットワーク上でのA/Bテストの根底にあるネットワーク干渉パターンを特徴付けるために、透明な機械学習モデルを用いた「因果ネットワークモチーフ」を導入する。
提案手法の性能は,Instagram上での合成実験と大規模テストの両方のシミュレーションによって実証されている。
提案手法は,設計に基づくクラスタランダム化や従来の分析に基づく近傍露光マッピングなど,従来の手法よりも優れていることを示す。
私たちのアプローチは、A/Bテスト実践者のネットワーク干渉に対処するための、包括的で自動化されたソリューションを提供します。
これにより、マーケティングの有効性や製品カスタマイズといった分野で戦略的ビジネス上の決定を下すのに役立つ。
関連論文リスト
- Can We Validate Counterfactual Estimations in the Presence of General Network Interference? [6.092214762701847]
対実推定のためのクロスバリデーションを実現する新しいフレームワークを提案する。
中心となるのは、分散保存ネットワークブートストラップ方式です。
我々は、不均一な単位レベル特性を取り入れることで、最近の因果メッセージパッシングの発展を拡大する。
論文 参考訳(メタデータ) (2025-02-03T06:51:04Z) - Online Experimental Design With Estimation-Regret Trade-off Under Network Interference [7.080131271060764]
オンライン実験設計のための統合型干渉認識フレームワークを提案する。
既存の研究と比較して、露出マッピングの統計的概念を利用して腕の空間の定義を拡張した。
また、アルゴリズムの実装を提案し、異なる学習環境とネットワークトポロジにまたがる一般化について議論する。
論文 参考訳(メタデータ) (2024-12-04T21:45:35Z) - Cross-Domain Continual Learning via CLAMP [10.553456651003055]
CLAMPは、すべての実験で確立されたベースラインアルゴリズムを少なくとも10%のマージンで大幅に上回っている。
ベースモデルの学習プロセスをナビゲートするために、評価者誘導学習プロセスがフォワードされる。
論文 参考訳(メタデータ) (2024-05-12T02:41:31Z) - Graph Machine Learning based Doubly Robust Estimator for Network Causal Effects [17.44202934049009]
本稿では,グラフ機械学習アプローチとダブル機械学習フレームワークを組み合わせた新しい手法を提案する。
提案手法は,広範囲なシミュレーション研究を通じて,正確で堅牢でスケーラブルであることを示す。
論文 参考訳(メタデータ) (2024-03-17T20:23:42Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - Adversarial Machine Learning In Network Intrusion Detection Domain: A
Systematic Review [0.0]
ディープラーニングモデルは、誤った分類決定を行うためにモデルを誤解させる可能性のあるデータインスタンスに対して脆弱であることがわかった。
本調査では,ネットワーク侵入検出分野における敵機械学習のさまざまな側面を利用した研究について検討する。
論文 参考訳(メタデータ) (2021-12-06T19:10:23Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Vulnerability Under Adversarial Machine Learning: Bias or Variance? [77.30759061082085]
本研究では,機械学習が訓練された深層ニューラルネットワークのバイアスと分散に与える影響について検討する。
我々の分析は、ディープニューラルネットワークが対向的摂動下で性能が劣っている理由に光を当てている。
本稿では,計算処理の複雑さをよく知られた機械学習手法よりも低く抑えた,新しい逆機械学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-01T00:58:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。