論文の概要: Decentralized Contextual Bandits with Network Adaptivity
- arxiv url: http://arxiv.org/abs/2508.13411v1
- Date: Tue, 19 Aug 2025 00:09:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.746279
- Title: Decentralized Contextual Bandits with Network Adaptivity
- Title(参考訳): ネットワーク適応性を考慮した分散コンテキスト帯域
- Authors: Chuyun Deng, Huiwen Jia,
- Abstract要約: 我々は,NetLinUCBとNet-SGD-UCBという2つのネットワーク対応アッパー信頼境界(UCB)アルゴリズムを開発した。
提案手法は,グローバルおよびローカルなコンポーネントに学習を分解し,エージェントが完全に同期することなく共有構造を活用できるようにする。
- 参考スコア(独自算出の注目度): 3.683202928838613
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider contextual linear bandits over networks, a class of sequential decision-making problems where learning occurs simultaneously across multiple locations and the reward distributions share structural similarities while also exhibiting local differences. While classical contextual bandits assume either fully centralized data or entirely isolated learners, much remains unexplored in networked environments when information is partially shared. In this paper, we address this gap by developing two network-aware Upper Confidence Bound (UCB) algorithms, NetLinUCB and Net-SGD-UCB, which enable adaptive information sharing guided by dynamically updated network weights. Our approach decompose learning into global and local components and as a result allow agents to benefit from shared structure without full synchronization. Both algorithms incur lighter communication costs compared to a fully centralized setting as agents only share computed summaries regarding the homogeneous features. We establish regret bounds showing that our methods reduce the learning complexity associated with the shared structure from $O(N)$ to sublinear $O(\sqrt{N})$, where $N$ is the size of the network. The two algorithms reveal complementary strengths: NetLinUCB excels in low-noise regimes with fine-grained heterogeneity, while Net-SGD-UCB is robust to high-dimensional, high-variance contexts. We further demonstrate the effectiveness of our methods across simulated pricing environments compared to standard benchmarks.
- Abstract(参考訳): ネットワーク上のコンテキスト線形帯域は、学習が複数の場所にわたって同時に発生し、報酬分布が局所的な差異を示しながら構造的類似性を共有する、逐次的決定問題である。
古典的な文脈的帯域幅は、完全に集中したデータか完全に孤立した学習者を前提としているが、情報の一部が共有されている場合、多くのものはネットワーク環境で探索されていない。
本稿では,2つのネットワーク対応アッパー信頼境界(UCB)アルゴリズム,NetLinUCBとNet-SGD-UCBを開発し,動的に更新されたネットワーク重みによって誘導される適応情報共有を実現する。
我々のアプローチは学習をグローバルなコンポーネントとローカルなコンポーネントに分解し、結果としてエージェントは完全な同期なしに共有構造の恩恵を受けることができる。
エージェントは等質な特徴について計算された要約を共有するだけなので、両アルゴリズムは完全な中央集権的な設定に比べて、より軽い通信コストを発生させる。
提案手法は共有構造に関連する学習の複雑さを$O(N)$から$O(\sqrt{N})$に減らし,ネットワークのサイズを$N$とする。
Net-SGD-UCBは高次元の高分散コンテキストに対して堅牢である。
さらに,提案手法の有効性を,標準ベンチマークと比較し,模擬価格環境における有効性を示す。
関連論文リスト
- Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Unsupervised Domain-adaptive Hash for Networks [81.49184987430333]
ドメイン適応型ハッシュ学習はコンピュータビジョンコミュニティでかなりの成功を収めた。
UDAHと呼ばれるネットワークのための教師なしドメイン適応型ハッシュ学習手法を開発した。
論文 参考訳(メタデータ) (2021-08-20T12:09:38Z) - Structured DropConnect for Uncertainty Inference in Image Classification [19.22497677849603]
本稿では,ディープニューラルネットワークの出力をディリクレ分布によってモデル化する構造化DropConnect (SDC) フレームワークを提案する。
提案したSDCは、特定の一般化能力と研究の展望を持つ異なるネットワーク構造に適応している。
論文 参考訳(メタデータ) (2021-06-16T08:31:14Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z) - DNNs as Layers of Cooperating Classifiers [5.746505534720594]
ディープニューラルネットワーク(DNN)の一般的な状況下での一般化能力を記述し、予測できる堅牢な理論的枠組みは、いまだ解明されていない。
完全に接続されたフィードフォワードネットワーク内の隠れノードの活性化パターンに興味深い規則性を示す。
これら2つのシステムは,勾配に基づく最適化プロセスから自然に発生し,個別かつ協調的に2つのシステムの分類能力を示す。
論文 参考訳(メタデータ) (2020-01-17T07:45:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。