論文の概要: Fair Minimum Labeling: Efficient Temporal Network Activations for Reachability and Equity
- arxiv url: http://arxiv.org/abs/2510.03899v1
- Date: Sat, 04 Oct 2025 18:47:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.328925
- Title: Fair Minimum Labeling: Efficient Temporal Network Activations for Reachability and Equity
- Title(参考訳): Fair Minimum Labeling: 到達性と等価性のための効率的な時間ネットワーク活性化
- Authors: Lutz Oettershagen, Othon Michail,
- Abstract要約: リソース効率と公平性のバランスは、現代の学習アプリケーションをサポートするネットワークシステムにおいて重要である。
本稿では,最小限の時間的エッジアクティベーションプランを設計する作業であるFair Minimum Labeling問題を紹介する。
その結果,FMLはベースラインよりも活性化コストが大幅に低いグループレベルのフェアネスを強制することがわかった。
- 参考スコア(独自算出の注目度): 1.8907108368038215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Balancing resource efficiency and fairness is critical in networked systems that support modern learning applications. We introduce the Fair Minimum Labeling (FML) problem: the task of designing a minimum-cost temporal edge activation plan that ensures each group of nodes in a network has sufficient access to a designated target set, according to specified coverage requirements. FML captures key trade-offs in systems where edge activations incur resource costs and equitable access is essential, such as distributed data collection, update dissemination in edge-cloud systems, and fair service restoration in critical infrastructure. We show that FML is NP-hard and $\Omega(\log |V|)$-hard to approximate, and we present probabilistic approximation algorithms that match this bound, achieving the best possible guarantee for the activation cost. We demonstrate the practical utility of FML in a fair multi-source data aggregation task for training a shared model. Empirical results show that FML enforces group-level fairness with substantially lower activation cost than baseline heuristics, underscoring its potential for building resource-efficient, equitable temporal reachability in learning-integrated networks.
- Abstract(参考訳): リソース効率と公平さのバランスをとることは、現代の学習アプリケーションをサポートするネットワークシステムにおいて重要である。
本稿では,FML(Fair Minimum Labeling)問題として,ネットワークの各ノードが指定されたターゲットセットに十分なアクセスを保証できる最小コストの時間的エッジアクティベーションプランを設計するタスクを紹介する。
FMLは、分散データ収集、エッジクラウドシステムの更新拡散、重要なインフラストラクチャにおける公正なサービス復元など、エッジアクティベーションがリソースコストと公平なアクセスが不可欠であるシステムにおける重要なトレードオフをキャプチャする。
FML は NP-hard で$\Omega(\log |V|)$-hard であることを示すとともに,この制約に適合する確率近似アルゴリズムを提案する。
本稿では,FMLの実用性を,共有モデルのトレーニングを行うための公平なマルチソースデータアグリゲーションタスクで実証する。
実験の結果、FMLはベースラインヒューリスティックスよりもかなり低いアクティベーションコストでグループレベルのフェアネスを強制し、学習統合ネットワークにおける資源効率、公平な時間的到達性の構築の可能性を強調している。
関連論文リスト
- Efficient Uncertainty Estimation for LLM-based Entity Linking in Tabular Data [0.3593955557310285]
トークンレベルの特徴量を用いて単発出力から不確実性を推定するための自己教師型アプローチについて検討する。
得られた不確実性推定は,低精度出力の検出に極めて有効であることを示す。
これは計算コストのごく一部で達成され、不確実性対策をEntity Linkingに費用対効果で統合するのをサポートする。
論文 参考訳(メタデータ) (2025-09-24T10:44:16Z) - How to Train Your LLM Web Agent: A Statistical Diagnosis [102.04125085041473]
LLMウェブエージェントのポストトレーニングにおける計算割当に関する統計学的基礎研究について述べる。
提案手法では,Llama 3.1 8Bの学生を対象に,教師付き微調整(SFT)とオンライン強化学習を用いて,Llama 3.3 70Bの教師を模倣する2段階のパイプラインを用いた。
以上の結果から,SFTとオンラインRLの組み合わせは,WorkArenaとMiniWob++のいずれにおいても,単独でのアプローチよりも一貫して優れていた。
論文 参考訳(メタデータ) (2025-07-05T17:12:33Z) - R-Sparse: Rank-Aware Activation Sparsity for Efficient LLM Inference [77.47238561728459]
R-スパース(R-Sparse)は、高度なLCMにおいて高い疎度を達成できる訓練不要なアクティベーション・スパシティ・アプローチである。
10種類のタスクにわたるLlama-2/3およびMistralモデルの実験は、R-Sparseが50%のモデルレベルの間隔で同等のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-04-28T03:30:32Z) - Optimizing Value of Learning in Task-Oriented Federated Meta-Learning Systems [10.332182237773818]
デバイス間の個別のトレーニングニーズを評価するために、新しいメトリック、学習のメトリック値(VoL)が導入された。
タスクレベルの重み(TLW)は、FMLトレーニングのタスクレベルの考慮と公平性に基づいて定義される。
論文 参考訳(メタデータ) (2025-01-07T00:30:31Z) - VinePPO: Refining Credit Assignment in RL Training of LLMs [66.80143024475635]
我々は,言語環境の柔軟性を利用してモンテカルロをベースとした推定値を計算する,簡単なアプローチであるVinePPOを提案する。
本手法は,MATHおよびGSM8Kデータセット間のPPOおよび他のベースラインをウォールクロック時間以下で連続的に上回る。
論文 参考訳(メタデータ) (2024-10-02T15:49:30Z) - FedAuxHMTL: Federated Auxiliary Hard-Parameter Sharing Multi-Task Learning for Network Edge Traffic Classification [9.816810723612653]
本稿では,FedAuxHMTLという,多タスク学習のための補助的ハードパラメータ共有フレームワークを提案する。
エッジサーバとベースステーション間のモデルパラメータ交換を取り入れ、分散領域のベースステーションがFedAuxHMTLプロセスに参加することを可能にする。
実験により,FedAuxHMTLの有効性を,精度,全地球的損失,通信コスト,計算時間,エネルギー消費の観点から検証し,実証した。
論文 参考訳(メタデータ) (2024-04-11T16:23:28Z) - MobiLlama: Towards Accurate and Lightweight Fully Transparent GPT [87.4910758026772]
近年のLarge Language Models (LLM) 開発において,"Bigger the Better" が主流となっている。
本稿では、リソース制約のあるデバイスに対して、正確かつ効率的なSLM(Small Language Models)を設計する上での課題に対処し、"less is more"パラダイムについて考察する。
論文 参考訳(メタデータ) (2024-02-26T18:59:03Z) - FederatedScope-LLM: A Comprehensive Package for Fine-tuning Large
Language Models in Federated Learning [70.38817963253034]
本稿では, ファインチューニング LLM のこれらの課題について論じ, 本パッケージ FS-LLM を主な貢献として紹介する。
我々は、FLシナリオにおける将来の拡張のために、包括的フェデレーションパラメータ効率の良い微調整アルゴリズムの実装と汎用プログラミングインタフェースを提供する。
本研究では, FS-LLM の有効性を検証し, FL 設定におけるパラメータ効率の高いパラメータ調整アルゴリズムを用いて, 高度な LLM のベンチマークを行う。
論文 参考訳(メタデータ) (2023-09-01T09:40:36Z) - A Federated Reinforcement Learning Framework for Link Activation in
Multi-link Wi-Fi Networks [3.093231349723552]
マルチリンク操作(MLO)は、高い干渉とチャネル競合が生じ、性能と信頼性が低下する。
本稿では,複数の分散エージェント間でデータを交換することなくモデルを学習するための協調機械学習手法を提案する。
その結果,FRLをベースとした分散MLO-LA戦略により,スループットの公平性が向上し,信頼性が向上した。
論文 参考訳(メタデータ) (2023-04-28T09:39:10Z) - Dif-MAML: Decentralized Multi-Agent Meta-Learning [54.39661018886268]
我々は,MAML や Dif-MAML と呼ばれる協調型マルチエージェントメタ学習アルゴリズムを提案する。
提案手法により, エージェントの集合が線形速度で合意に達し, 集約MAMLの定常点に収束できることを示す。
シミュレーションの結果は従来の非協調的な環境と比較して理論的な結果と優れた性能を示している。
論文 参考訳(メタデータ) (2020-10-06T16:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。