論文の概要: Journey to the Centre of Cluster: Harnessing Interior Nodes for A/B Testing under Network Interference
- arxiv url: http://arxiv.org/abs/2602.04457v1
- Date: Wed, 04 Feb 2026 11:41:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.508302
- Title: Journey to the Centre of Cluster: Harnessing Interior Nodes for A/B Testing under Network Interference
- Title(参考訳): クラスタセンターへの旅:ネットワーク干渉下でのA/Bテストのための内部ノードのハーネス
- Authors: Qianyi Chen, Anpeng Wu, Bo Li, Lu Deng, Yong Wang,
- Abstract要約: クラスタレベルのランダム化が標準となり、ネットワーク対応推定器の使用が可能になった。
これらの推定器は、典型的には情報単位のサブセットのみを保持するようにデータをトリミングし、適切な条件下でバイアスを低くするが、しばしば高い分散に悩まされる。
本稿では,既存のネットワーク認識型推定器が必要とする微妙な再重み付けを回避するため,内部ノードを平均化して平均イン・イン・イン・イン・インター(MII)推定器を構築することを提案する。
- 参考スコア(独自算出の注目度): 16.98938598508327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A/B testing on platforms often faces challenges from network interference, where a unit's outcome depends not only on its own treatment but also on the treatments of its network neighbors. To address this, cluster-level randomization has become standard, enabling the use of network-aware estimators. These estimators typically trim the data to retain only a subset of informative units, achieving low bias under suitable conditions but often suffering from high variance. In this paper, we first demonstrate that the interior nodes - units whose neighbors all lie within the same cluster - constitute the vast majority of the post-trimming subpopulation. In light of this, we propose directly averaging over the interior nodes to construct the mean-in-interior (MII) estimator, which circumvents the delicate reweighting required by existing network-aware estimators and substantially reduces variance in classical settings. However, we show that interior nodes are often not representative of the full population, particularly in terms of network-dependent covariates, leading to notable bias. We then augment the MII estimator with a counterfactual predictor trained on the entire network, allowing us to adjust for covariate distribution shifts between the interior nodes and full population. By rearranging the expression, we reveal that our augmented MII estimator embodies an analytical form of the point estimator within prediction-powered inference framework. This insight motivates a semi-supervised lens, wherein interior nodes are treated as labeled data subject to selection bias. Extensive and challenging simulation studies demonstrate the outstanding performance of our augmented MII estimator across various settings.
- Abstract(参考訳): プラットフォーム上でのA/Bテストは、ネットワーク干渉による課題に直面することが多く、ユニットの結果は、自身の処理だけでなく、ネットワーク隣人の処理にも依存する。
これを解決するために、クラスタレベルのランダム化が標準となり、ネットワーク対応推定器の使用が可能になった。
これらの推定器は、典型的には情報単位のサブセットのみを保持するようにデータをトリミングし、適切な条件下でバイアスを低くするが、しばしば高い分散に悩まされる。
本稿では、まず、隣り合うノードがすべて同じクラスタ内にある内部ノードが、ポストトリミングのサブポピュレーションの大部分を占めていることを実証する。
そこで本研究では,既存のネットワーク認識型推定器が求める微妙な再重み付けを回避し,古典的設定のばらつきを大幅に低減する平均イン・イン・イン・イン・インター(MII)推定器を構築するために,内部ノードを平均化する手法を提案する。
しかしながら、内部ノードは、特にネットワーク依存の共変量の観点からは、全人口を代表していないことがしばしば示され、顕著なバイアスが生じる。
次に,MII推定器をネットワーク全体にトレーニングした反ファクト予測器で拡張し,内部ノードと全集団間の共分散シフトを調整できるようにした。
この表現を並べ替えることで、我々の拡張MII推定器は、予測駆動推論フレームワーク内の点推定器の分析形式を具現化することを明らかにした。
この洞察は半教師付きレンズを動機付け、内部ノードは選択バイアスを受けるラベル付きデータとして扱われる。
大規模かつ挑戦的なシミュレーション研究は、様々な環境における拡張MII推定器の優れた性能を実証している。
関連論文リスト
- Differences-in-Neighbors for Network Interference in Experiments [5.079602839359523]
そこで本研究では,ネットワーク干渉を緩和するために設計されたDNと呼ばれる新しい推定器を提案する。
DM推定器と比較して、DNバイアスは干渉効果の大きさで2位、その分散はHT推定器よりも指数的に小さい。
大規模ソーシャルネットワークと都市レベルのライドシェアリングシミュレータによる実証評価は,DNの優れた性能を示す。
論文 参考訳(メタデータ) (2025-03-04T04:40:12Z) - Self-Supervised Learning for Covariance Estimation [3.04585143845864]
推論時に局所的に適用されるニューラルネットワークをグローバルに学習することを提案する。
アーキテクチャは、一般的な注目メカニズムに基づいている。
基礎モデルとして事前訓練し、レーダーやハイパースペクトル画像の適応目標検出など、様々な下流タスクに再利用することができる。
論文 参考訳(メタデータ) (2024-03-13T16:16:20Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Self-supervised debiasing using low rank regularization [59.84695042540525]
純粋な相関は、ディープニューラルネットワークの強いバイアスを引き起こし、一般化能力を損なう可能性がある。
ラベルのないサンプルと互換性のある自己監督型脱バイアスフレームワークを提案する。
注目すべきは,提案フレームワークが自己教師付き学習ベースラインの一般化性能を著しく向上させることである。
論文 参考訳(メタデータ) (2022-10-11T08:26:19Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Decentralized Local Stochastic Extra-Gradient for Variational
Inequalities [125.62877849447729]
我々は、不均一(非IID)で多くのデバイスに分散する問題データを持つ領域上での分散変分不等式(VIs)を考察する。
我々は、完全に分散化された計算の設定を網羅する計算ネットワークについて、非常に一般的な仮定を行う。
理論的には, モノトン, モノトンおよび非モノトンセッティングにおける収束速度を理論的に解析する。
論文 参考訳(メタデータ) (2021-06-15T17:45:51Z) - Intraclass clustering: an implicit learning ability that regularizes
DNNs [22.732204569029648]
ディープニューラルネットワークは,クラス間で有意義なクラスタを抽出する能力によって正規化されることを示す。
クラス内クラスタリングの尺度は、トレーニングデータのニューロンおよび層レベルの表現に基づいて設計される。
論文 参考訳(メタデータ) (2021-03-11T15:26:27Z) - Unifying supervised learning and VAEs -- coverage, systematics and
goodness-of-fit in normalizing-flow based neural network models for
astro-particle reconstructions [0.0]
統計的不確実性、包括性、体系的不確実性、あるいは適度な尺度はしばしば計算されない。
データとラベルの共分散のKL分割の目的は、教師付き学習と変分オートエンコーダの統合を可能にすることを示す。
本稿では,特定の「基本順序」輪郭の数値積分を伴わずにカバレッジ確率を計算する方法について論じる。
論文 参考訳(メタデータ) (2020-08-13T11:28:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。