論文の概要: Auxiliary-task Based Deep Reinforcement Learning for Participant
Selection Problem in Mobile Crowdsourcing
- arxiv url: http://arxiv.org/abs/2008.11087v2
- Date: Wed, 26 Aug 2020 00:55:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 03:06:20.211895
- Title: Auxiliary-task Based Deep Reinforcement Learning for Participant
Selection Problem in Mobile Crowdsourcing
- Title(参考訳): モバイルクラウドソーシングにおける参加者選択問題に対する補助タスクに基づく深層強化学習
- Authors: Wei Shen, Xiaonan He, Chuheng Zhang, Qiang Ni, Wanchun Dou, Yan Wang
- Abstract要約: モバイルのクラウドソーシングでは、複数の目標を達成するために、求職者からの位置情報対応タスクを参加者に選択する。
異なる MCS システムには異なる目標があり、ある MCS システムでも相反する目標が存在する可能性がある。
複数の目標を達成するために,様々なMCSシステムに適用可能な参加者選択アルゴリズムを設計することが重要である。
- 参考スコア(独自算出の注目度): 30.124365580284888
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In mobile crowdsourcing (MCS), the platform selects participants to complete
location-aware tasks from the recruiters aiming to achieve multiple goals
(e.g., profit maximization, energy efficiency, and fairness). However,
different MCS systems have different goals and there are possibly conflicting
goals even in one MCS system. Therefore, it is crucial to design a participant
selection algorithm that applies to different MCS systems to achieve multiple
goals. To deal with this issue, we formulate the participant selection problem
as a reinforcement learning problem and propose to solve it with a novel
method, which we call auxiliary-task based deep reinforcement learning (ADRL).
We use transformers to extract representations from the context of the MCS
system and a pointer network to deal with the combinatorial optimization
problem. To improve the sample efficiency, we adopt an auxiliary-task training
process that trains the network to predict the imminent tasks from the
recruiters, which facilitates the embedding learning of the deep learning
model. Additionally, we release a simulated environment on a specific MCS task,
the ride-sharing task, and conduct extensive performance evaluations in this
environment. The experimental results demonstrate that ADRL outperforms and
improves sample efficiency over other well-recognized baselines in various
settings.
- Abstract(参考訳): モバイルクラウドソーシング(mcs: mobile crowdsourcing)では、複数の目標(利益の最大化、エネルギー効率、公平性)を達成することを目指すリクルーターから、参加者を選定する。
しかし、異なる MCS システムは異なる目標を持ち、ある MCS システムにおいても矛盾する目標が存在する可能性がある。
したがって、複数の目標を達成するために異なるMCSシステムに適用する参加者選択アルゴリズムを設計することが重要である。
この問題に対処するため、我々は、強化学習問題として参加者選択問題を定式化し、補助タスクに基づく深層強化学習(ADRL)と呼ばれる新しい手法で解決することを提案する。
我々は変換器を用いてMCSシステムとポインタネットワークのコンテキストから表現を抽出し、組合せ最適化問題に対処する。
サンプル効率を向上させるために,ネットワークをトレーニングして採用者からの差し迫ったタスクを予測する補助タスク学習プロセスを採用し,ディープラーニングモデルの埋め込み学習を容易にする。
さらに,特定のmcsタスク,ライドシェアリングタスク上でシミュレーション環境をリリースし,この環境での広範な性能評価を行う。
実験により, ADRLは, 様々な設定において, 他のよく認識されたベースラインよりも優れ, サンプル効率が向上することを示した。
関連論文リスト
- Sample Efficient Myopic Exploration Through Multitask Reinforcement
Learning with Diverse Tasks [53.44714413181162]
本稿では, エージェントが十分に多様なタスクセットで訓練された場合, 筋電図探索設計による一般的なポリシー共有アルゴリズムは, サンプル効率がよいことを示す。
我々の知る限りでは、これはMTRLの「探索的利益」の初めての理論的実証である。
論文 参考訳(メタデータ) (2024-03-03T22:57:44Z) - Decentralized Online Learning in Task Assignment Games for Mobile
Crowdsensing [55.07662765269297]
モバイルクラウドセンシングプラットフォーム(MCSP)は、センサオファーをMCSPに送り返してタスクに参加する意思を示すための、利用可能なモバイルユニット(MU)に順次、センシングタスクを発行する。
安定したタスク割り当ては、MCSPとMUの相反する目標、およびMUの要求する努力と嗜好の不確実性という2つの課題に対処する必要がある。
これらの課題を克服するために,衝突回避型マルチアームバンディットと戦略的自由センシング(CA-MAB-SFS)という,マッチング理論とオンライン学習を組み合わせた新たな分散アプローチを提案する。
論文 参考訳(メタデータ) (2023-09-19T13:07:15Z) - Task Selection and Assignment for Multi-modal Multi-task Dialogue Act
Classification with Non-stationary Multi-armed Bandits [11.682678945754837]
マルチタスク学習(MTL)は、関連する補助タスクと共同学習することで、一次タスクの性能を向上させることを目的としている。
これまでの研究では、このようなランダムなタスクの選択は役に立たない可能性があり、パフォーマンスに有害な可能性があることが示唆されている。
本稿では,非定常的マルチアームバンディットに基づくタスクの選択と割り当てを行う手法を提案する。
論文 参考訳(メタデータ) (2023-09-18T14:51:51Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - DL-DRL: A double-level deep reinforcement learning approach for
large-scale task scheduling of multi-UAV [65.07776277630228]
分割・征服フレームワーク(DCF)に基づく二重レベル深層強化学習(DL-DRL)手法を提案する。
特に,上層部DRLモデルにおけるエンコーダ・デコーダ構成ポリシネットワークを設計し,タスクを異なるUAVに割り当てる。
また、低レベルDRLモデルにおける別の注意に基づくポリシーネットワークを利用して、各UAVの経路を構築し、実行されたタスク数を最大化する。
論文 参考訳(メタデータ) (2022-08-04T04:35:53Z) - Multi-Task Learning with Sequence-Conditioned Transporter Networks [67.57293592529517]
シーケンスコンディショニングと重み付きサンプリングのレンズによるマルチタスク学習の実現を目指している。
合成タスクを対象とした新しいベンチマークであるMultiRavensを提案する。
次に,視覚に基づくエンドツーエンドシステムアーキテクチャであるSequence-Conditioned Transporter Networksを提案する。
論文 参考訳(メタデータ) (2021-09-15T21:19:11Z) - Energy-Efficient Multi-Orchestrator Mobile Edge Learning [54.28419430315478]
Mobile Edge Learning(MEL)は、エッジデバイス上で機械学習(ML)モデルの分散トレーニングを特徴とする、協調学習パラダイムである。
MELでは、異なるデータセットで複数の学習タスクが共存する可能性がある。
本稿では, エネルギー消費, 精度, 解複雑性のトレードオフを容易にする軽量なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-02T07:37:10Z) - Efficient Reinforcement Learning in Resource Allocation Problems Through
Permutation Invariant Multi-task Learning [6.247939901619901]
特定の環境では、利用可能なデータはマルチタスク学習の形式で劇的に向上できることを示す。
我々は,この条件下でのサンプル効率の利得に結びついた理論的性能を提供する。
これは、適切なニューラルネットワークアーキテクチャの設計と優先順位付けされたタスクサンプリング戦略を含む、マルチタスク学習への新しいアプローチを動機付ける。
論文 参考訳(メタデータ) (2021-02-18T14:13:02Z) - Dynamic Task Weighting Methods for Multi-task Networks in Autonomous
Driving Systems [10.625400639764734]
ディープマルチタスクネットワークは、自動運転システムに特に関心がある。
進化的メタラーニングとタスクベースの選択的バックプロパゲーションを組み合わせた新しい手法を提案する。
提案手法は,2タスクアプリケーションにおいて,最先端の手法よりも有意差がある。
論文 参考訳(メタデータ) (2020-01-07T18:54:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。