論文の概要: Fairness-Regularized Online Optimization with Switching Costs
- arxiv url: http://arxiv.org/abs/2512.11131v1
- Date: Thu, 11 Dec 2025 21:36:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.579083
- Title: Fairness-Regularized Online Optimization with Switching Costs
- Title(参考訳): スイッチングコストを考慮したフェアネス規則化オンライン最適化
- Authors: Pengfei Li, Yuelin Han, Adam Wierman, Shaolei Ren,
- Abstract要約: フェアネスを調整したスムーズなオンライン凸最適化を,スイッチングコストで新たな,かつ困難な設定で検討した。
本研究は,FairOBDが全公正化コストを効果的に削減し,公正な成果を効果的に促進できることを示す。
- 参考スコア(独自算出の注目度): 34.87519714070721
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Fairness and action smoothness are two crucial considerations in many online optimization problems, but they have yet to be addressed simultaneously. In this paper, we study a new and challenging setting of fairness-regularized smoothed online convex optimization with switching costs. First, to highlight the fundamental challenges introduced by the long-term fairness regularizer evaluated based on the entire sequence of actions, we prove that even without switching costs, no online algorithms can possibly achieve a sublinear regret or finite competitive ratio compared to the offline optimal algorithm as the problem episode length $T$ increases. Then, we propose FairOBD (Fairness-regularized Online Balanced Descent), which reconciles the tension between minimizing the hitting cost, switching cost, and fairness cost. Concretely, FairOBD decomposes the long-term fairness cost into a sequence of online costs by introducing an auxiliary variable and then leverages the auxiliary variable to regularize the online actions for fair outcomes. Based on a new approach to account for switching costs, we prove that FairOBD offers a worst-case asymptotic competitive ratio against a novel benchmark -- the optimal offline algorithm with parameterized constraints -- by considering $T\to\infty$. Finally, we run trace-driven experiments of dynamic computing resource provisioning for socially responsible AI inference to empirically evaluate FairOBD, showing that FairOBD can effectively reduce the total fairness-regularized cost and better promote fair outcomes compared to existing baseline solutions.
- Abstract(参考訳): 多くのオンライン最適化問題においてフェアネスとアクションスムースネスは2つの重要な考慮事項であるが、これらは同時に対処されていない。
本稿では,スムーズなスムーズなオンライン凸最適化を,スイッチングコストを伴って,新しい,かつ挑戦的な設定について検討する。
まず、アクションの順序全体に基づいて評価された長期公正正規化器がもたらす根本的な課題を強調するために、オンラインアルゴリズムは、コストを切り替えることなく、問題エピソードの長さが増加するにつれて、オフライン最適アルゴリズムと比較して、サブ線形後悔や有限競争比を達成できないことを証明した。
次に,Fairness-regularized Online Balanced Descent(Fairness-regularized Online Balanced Descent)を提案する。
具体的には、FairOBDは、補助変数を導入して長期公正コストを一連のオンラインコストに分解し、その補助変数を利用してオンラインアクションを公正な結果に調整する。
スイッチングコストを考慮に入れた新しいアプローチに基づいて、FairOBDがパラメータ化制約付き最適オフラインアルゴリズムである新しいベンチマークに対して、最悪の漸近競合比を提供することを示す。
最後に、FairOBDを実証的に評価するために、社会的に責任を持つAI推論のための動的コンピューティングリソースプロビジョニングのトレース駆動実験を行い、FairOBDは、既存のベースラインソリューションと比較して、全体の公正性と規則化されたコストを効果的に削減し、公正な結果を促進することができることを示した。
関連論文リスト
- Cost-aware Stopping for Bayesian Optimization [46.95172329282389]
本稿では,様々な評価コストに適応し,チューニングが不要なベイズ最適化のためのコスト対応停止則を提案する。
我々は,最先端の取得関数と組み合わせた場合,停止規則によって得られる期待累積評価コストを拘束する理論的な保証を証明した。
論文 参考訳(メタデータ) (2025-07-16T17:54:14Z) - Generalized Linear Bandits: Almost Optimal Regret with One-Pass Update [70.38810219913593]
非線形リンク関数を組み込んで古典線形モデルを拡張したコンテキスト型多武装バンディットフレームワークである一般化線形バンディット問題(GLB)について検討する。
GLBは現実世界のシナリオに広く適用できるが、その非線形性は計算効率と統計効率の両方を達成する上で大きな課題をもたらす。
本稿では,$mathcalO(1)$時間と1ラウンドあたりの空間複雑度をほぼ最適に再現するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-07-16T02:24:21Z) - Online Conversion with Switching Costs: Robust and Learning-Augmented Algorithms [11.029788598491077]
エネルギーとサステナビリティの交差点で発生した問題を捉えるオンライン問題の一群である,スイッチングコストによるオンライン変換について検討する。
本稿では,この問題の決定論的および決定論的変異に対して,競合的(ロバストな)しきい値に基づくアルゴリズムを導入する。
そこで我々は,ブラックボックスのアドバイスを活かした学習強化アルゴリズムを提案し,平均ケース性能を著しく向上させた。
論文 参考訳(メタデータ) (2023-10-31T16:34:49Z) - Robustified Learning for Online Optimization with Memory Costs [28.737193318136725]
本稿では,高い平均性能とロバスト性を両立する,新しいエキスパート・ロバスト学習(ERL)手法を提案する。
任意の$lambdageq1$に対して、ERLはエキスパートアルゴリズムに対して$lambda$-competitive、最適なオフラインアルゴリズムに対して$lambdacdot C$-competitiveを達成することができる。
論文 参考訳(メタデータ) (2023-05-01T06:12:01Z) - Optimal Parameter-free Online Learning with Switching Cost [47.415099037249085]
オンライン学習における自由とは、後ろ向きの最適決定に対するアルゴリズムの適応性を指す。
本稿では,パラメータフリーで要求される楽観的な更新を,スイッチングコストを前提として,そのようなアルゴリズムを設計する。
本稿では,オンライン線形最適化 (OLO) のための簡易かつ強力なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-13T18:44:27Z) - Smoothed Online Convex Optimization Based on Discounted-Normal-Predictor [68.17855675511602]
円滑なオンライン凸最適化(SOCO)のためのオンライン予測戦略について検討する。
提案アルゴリズムは,各区間の切替コストで適応的後悔を最小限に抑えることができることを示す。
論文 参考訳(メタデータ) (2022-05-02T08:48:22Z) - Cost-Efficient Online Hyperparameter Optimization [94.60924644778558]
実験の単一実行でヒトのエキスパートレベルのパフォーマンスに達するオンラインHPOアルゴリズムを提案します。
提案するオンラインhpoアルゴリズムは,実験の1回で人間のエキスパートレベルのパフォーマンスに到達できるが,通常のトレーニングに比べて計算オーバーヘッドは少ない。
論文 参考訳(メタデータ) (2021-01-17T04:55:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。