論文の概要: Incentivizing Massive Unknown Workers for Budget-Limited Crowdsensing:
From Off-Line and On-Line Perspectives
- arxiv url: http://arxiv.org/abs/2309.12113v2
- Date: Wed, 3 Jan 2024 02:53:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-04 16:46:22.009966
- Title: Incentivizing Massive Unknown Workers for Budget-Limited Crowdsensing:
From Off-Line and On-Line Perspectives
- Title(参考訳): 予算制限型群衆センシングのための大規模無名労働者のインセンティブ:オフラインとオンラインの視点から
- Authors: Feng Li, Yuqi Chai, Huan Yang, Pengfei Hu, Lingjie Duan
- Abstract要約: オフラインのコンテキスト認識型CMABベースのインセンティブ(CACI)機構を提案する。
また、このアイデアを、未知の労働者がシステムに参加または離脱するオンライン設定に拡張する。
- 参考スコア(独自算出の注目度): 31.24314338983544
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: How to incentivize strategic workers using limited budget is a very
fundamental problem for crowdsensing systems; nevertheless, since the sensing
abilities of the workers may not always be known as prior knowledge due to the
diversities of their sensor devices and behaviors, it is difficult to properly
select and pay the unknown workers. Although the uncertainties of the workers
can be addressed by the standard Combinatorial Multi-Armed Bandit (CMAB)
framework in existing proposals through a trade-off between exploration and
exploitation, we may not have sufficient budget to enable the trade-off among
the individual workers, especially when the number of the workers is huge while
the budget is limited. Moreover, the standard CMAB usually assumes the workers
always stay in the system, whereas the workers may join in or depart from the
system over time, such that what we have learnt for an individual worker cannot
be applied after the worker leaves. To address the above challenging issues, in
this paper, we first propose an off-line Context-Aware CMAB-based Incentive
(CACI) mechanism. We innovate in leveraging the exploration-exploitation
trade-off in an elaborately partitioned context space instead of the individual
workers, to effectively incentivize the massive unknown workers with a very
limited budget. We also extend the above basic idea to the on-line setting
where unknown workers may join in or depart from the systems dynamically, and
propose an on-line version of the CACI mechanism. We perform rigorous
theoretical analysis to reveal the upper bounds on the regrets of our CACI
mechanisms and to prove their truthfulness and individual rationality,
respectively. Extensive experiments on both synthetic and real datasets are
also conducted to verify the efficacy of our mechanisms.
- Abstract(参考訳): 限られた予算で戦略労働者にインセンティブを与える方法は,クラウドセンシングシステムにとって極めて根本的な問題である。しかしながら,センサデバイスや行動の多様性から,労働者のセンシング能力が常に事前知識として認識されるとは限らないため,未知の労働者を適切に選択・支払いすることは困難である。
労働者の不確実性は、探索と搾取の間のトレードオフを通じて、既存の提案において、標準コンビネート多武装バンディット(cmab)フレームワークによって対処できるが、特に予算が限られている場合において、個々の労働者間のトレードオフを可能にするための予算が十分ではない可能性がある。
さらに、標準的なCMABは、労働者が常にシステムに留まっていると仮定するのに対し、労働者は時間とともにシステムに参加または離脱し、労働者が去った後に個々の労働者のために学んだことは適用できないと仮定する。
本稿では、上記の課題に対処するため、まず、オフラインのコンテキスト認識CMABベースのインセンティブ(CACI)機構を提案する。
我々は、個々の労働者ではなく、精巧に分断された文脈空間における探検・探検のトレードオフを活用して、非常に限られた予算で大規模未知の労働者に効果的にインセンティブを与える。
また、上記の基本的な考え方を、未知の労働者が動的にシステムに参加または離脱するオンライン設定に拡張し、CACIメカニズムのオンラインバージョンを提案する。
厳密な理論的分析を行い、CACI機構の後悔の上限を明らかにし、それぞれの真理性および個々人の合理性を証明する。
また,本機構の有効性を検証するために,合成データと実データの両方について広範な実験を行った。
関連論文リスト
- Co-Supervised Learning: Improving Weak-to-Strong Generalization with
Hierarchical Mixture of Experts [81.37287967870589]
我々は,一貫した生徒を統括する,一貫した一貫した教師ではなく,多様な専門教師の集合を活用することを提案する。
我々のアプローチは、古典的な階層的な専門家の混合に似ている。
提案手法は,OpenAIの弱強ベンチマークと追加のマルチドメインデータセットを用いて,視覚認識タスクにより検証する。
論文 参考訳(メタデータ) (2024-02-23T18:56:11Z) - Refined Mechanism Design for Approximately Structured Priors via Active
Regression [50.71772232237571]
我々は、大量の商品を戦略的入札者に販売する収益を最大化する販売業者の問題を考える。
この設定の最適かつほぼ最適のメカニズムは、特徴付けや計算が難しいことで有名である。
論文 参考訳(メタデータ) (2023-10-11T20:34:17Z) - Incentive Mechanism for Uncertain Tasks under Differential Privacy [17.058734221792964]
モバイル・クラウド・センシング (MCS) は, 費用対効果により, センサ・パラダイムとして人気が高まっている。
本稿では,不確実性と隠れ入札を用いて問題に対処するインセンティブメカニズムであるHERALD*を提案する。
論文 参考訳(メタデータ) (2023-05-26T10:15:02Z) - Fairness for Workers Who Pull the Arms: An Index Based Policy for
Allocation of Restless Bandit Tasks [30.323831598899773]
異種労働者によるMulti-worker restless bandits(MWRMAB)と呼ばれる新しいRMAB設定について考察する。
目標は、各労働者の予算制約を満たしつつ、期待される報酬を最大化する介入スケジュールを計画することである。
コントリビューションは,(1)不均一なコストと作業者ごとの予算に対応するためにWhittleインデックスのマルチワーカー拡張を提供し,(2)公正性を達成するためのインデックスベースのスケジューリングポリシを開発する。
論文 参考訳(メタデータ) (2023-03-01T19:59:42Z) - Skill-Based Reinforcement Learning with Intrinsic Reward Matching [77.34726150561087]
Intrinsic Reward Matching (IRM) を提案する。
IRMにより、従来のスキル選択方法よりもはるかに効果的に事前訓練されたスキルを活用できる。
論文 参考訳(メタデータ) (2022-10-14T00:04:49Z) - Pessimism meets VCG: Learning Dynamic Mechanism Design via Offline
Reinforcement Learning [114.36124979578896]
オフライン強化学習アルゴリズムを用いて動的メカニズムを設計する。
我々のアルゴリズムは悲観主義の原理に基づいており、オフラインデータセットのカバレッジについて軽度な仮定しか必要としない。
論文 参考訳(メタデータ) (2022-05-05T05:44:26Z) - Online Auction-Based Incentive Mechanism Design for Horizontal Federated
Learning with Budget Constraint [9.503584357135832]
フェデレートされた学習は、データ分離を持つすべての関係者が協力的かつ効率的にモデルをトレーニングすることを可能にする。
高品質なモデルを得るには、より高品質な労働者をデータと計算能力で動機付けるためのインセンティブメカニズムが必要である。
本稿では,予算制約を伴う水平的フェデレーション学習のための,逆オークションに基づくオンラインインセンティブ機構を提案する。
論文 参考訳(メタデータ) (2022-01-22T13:37:52Z) - Auction-Based Ex-Post-Payment Incentive Mechanism Design for Horizontal
Federated Learning with Reputation and Contribution Measurement [9.503584357135832]
フェデレーション学習は、分散データを持つデバイス間でモデルをトレーニングし、プライバシを保護し、集中型MLと同様のモデルを取得する。
評価とコントリビューション測定を併用した水平連合学習のためのオークションベースのインセンティブメカニズムを設計する。
論文 参考訳(メタデータ) (2022-01-07T11:44:20Z) - Harnessing Context for Budget-Limited Crowdsensing with Massive
Uncertain Workers [26.835745787064337]
本稿では,コンテキスト対応作業者選択(CAWS)アルゴリズムを提案する。
CAWSは、予算制約とキャパシティ制約の両方を尊重して、予想される総センシング収益を効率的に最大化することを目指している。
論文 参考訳(メタデータ) (2021-07-03T09:09:07Z) - Explanations of Machine Learning predictions: a mandatory step for its
application to Operational Processes [61.20223338508952]
信用リスクモデリングは重要な役割を果たす。
近年,機械学習や深層学習の手法が採用されている。
この分野における説明可能性問題に LIME 手法を適用することを提案する。
論文 参考訳(メタデータ) (2020-12-30T10:27:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。