論文の概要: Algorithms for Fair Team Formation in Online Labour Marketplaces
- arxiv url: http://arxiv.org/abs/2002.11621v1
- Date: Fri, 14 Feb 2020 11:33:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 04:41:46.793608
- Title: Algorithms for Fair Team Formation in Online Labour Marketplaces
- Title(参考訳): オンライン労働市場における公平なチーム形成のためのアルゴリズム
- Authors: Giorgio Barnab\`o and Adriano Fazzone and Stefano Leonardi and Chris
Schwiegelshohn
- Abstract要約: 我々は、機械学習とアルゴリズムデータ分析ツールを用いて労働者を雇用するプロセスが、国籍や性別に基づいて、意図せずにも差別されないことを保証することを目指している。
フェアチーム形成問題に対して,問題自体に対する4つのアルゴリズムとともに不適応性を示す。
また、オンライン労働市場からの実データを用いて実験を行うことにより、アルゴリズムソリューションの有効性を検証した。
- 参考スコア(独自算出の注目度): 6.446179861303341
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As freelancing work keeps on growing almost everywhere due to a sharp
decrease in communication costs and to the widespread of Internet-based labour
marketplaces (e.g., guru.com, feelancer.com, mturk.com, upwork.com), many
researchers and practitioners have started exploring the benefits of
outsourcing and crowdsourcing. Since employers often use these platforms to
find a group of workers to complete a specific task, researchers have focused
their efforts on the study of team formation and matching algorithms and on the
design of effective incentive schemes. Nevertheless, just recently, several
concerns have been raised on possibly unfair biases introduced through the
algorithms used to carry out these selection and matching procedures. For this
reason, researchers have started studying the fairness of algorithms related to
these online marketplaces, looking for intelligent ways to overcome the
algorithmic bias that frequently arises. Broadly speaking, the aim is to
guarantee that, for example, the process of hiring workers through the use of
machine learning and algorithmic data analysis tools does not discriminate,
even unintentionally, on grounds of nationality or gender. In this short paper,
we define the Fair Team Formation problem in the following way: given an online
labour marketplace where each worker possesses one or more skills, and where
all workers are divided into two or more not overlapping classes (for examples,
men and women), we want to design an algorithm that is able to find a team with
all the skills needed to complete a given task, and that has the same number of
people from all classes. We provide inapproximability results for the Fair Team
Formation problem together with four algorithms for the problem itself. We also
tested the effectiveness of our algorithmic solutions by performing experiments
using real data from an online labor marketplace.
- Abstract(参考訳): コミュニケーションコストの急激な減少とインターネットベースの労働市場(guru.com, feelancer.com, mturk.com, upwork.comなど)の普及により、フリーランシング作業は至るところで成長を続けており、多くの研究者や実践者がアウトソーシングとクラウドソーシングの利点を探究している。
雇用者はこれらのプラットフォームを使用して、特定のタスクを完了するために労働者のグループを見つけることが多いため、研究者はチーム形成とマッチングアルゴリズムの研究と効果的なインセンティブスキームの設計に集中してきた。
しかし、最近になって、これらの選択とマッチングの手順を実行するアルゴリズムを通じて導入された不公平なバイアスについて、いくつかの懸念が提起された。
このため、研究者たちはこれらのオンラインマーケットプレースに関連するアルゴリズムの公正性の研究を始め、しばしば発生するアルゴリズムバイアスを克服するインテリジェントな方法を模索している。
広範に言えば、例えば、機械学習とアルゴリズムデータ分析ツールを使って労働者を雇用するプロセスは、国籍や性別の理由からさえ、意図せずも差別されないことを保証することを目的としている。
それぞれの作業者が1つ以上のスキルを持ち、すべての作業者が重複しない2つ以上のクラス(例えば、男女)に分割されるオンライン労働市場が与えられた場合、私たちは、与えられたタスクを完了するために必要なスキルをすべて備えたチームを見つけ、すべてのクラスから同じ人数の人を配置できるアルゴリズムを設計したいと考えています。
我々は,公平なチーム形成問題に対する近似結果と,問題自体に対する4つのアルゴリズムを提供する。
また,オンライン労働市場における実データを用いた実験を行い,アルゴリズムの有効性を検証した。
関連論文リスト
- Contractual Reinforcement Learning: Pulling Arms with Invisible Hands [68.77645200579181]
本稿では,契約設計によるオンライン学習問題において,利害関係者の経済的利益を整合させる理論的枠組みを提案する。
計画問題に対して、遠目エージェントに対する最適契約を決定するための効率的な動的プログラミングアルゴリズムを設計する。
学習問題に対して,契約の堅牢な設計から探索と搾取のバランスに至るまでの課題を解き放つために,非回帰学習アルゴリズムの汎用設計を導入する。
論文 参考訳(メタデータ) (2024-07-01T16:53:00Z) - Measuring, Interpreting, and Improving Fairness of Algorithms using
Causal Inference and Randomized Experiments [8.62694928567939]
本稿では,アルゴリズム決定の公平性を測り,解釈し,改善するためのMIIFフレームワークを提案する。
ランダム化実験を用いてアルゴリズムバイアスを測定し, 異なる処理, 異なる影響, 経済的価値の同時測定を可能にする。
また、ブラックボックスアルゴリズムの信念を正確に解釈し、蒸留する、説明可能な機械学習モデルを開発した。
論文 参考訳(メタデータ) (2023-09-04T19:45:18Z) - Multi-Dimensional Ability Diagnosis for Machine Learning Algorithms [88.93372675846123]
本稿では,機械学習アルゴリズム評価のためのタスク非依存評価フレームワークCamillaを提案する。
認識診断の仮定とニューラルネットワークを用いて、各サンプルのアルゴリズム、サンプル、スキル間の複雑な相互作用を学習する。
我々の実験では、カミラはメートル法信頼性、ランクの整合性、ランクの安定性で最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2023-07-14T03:15:56Z) - A Reinforcement Learning-assisted Genetic Programming Algorithm for Team
Formation Problem Considering Person-Job Matching [70.28786574064694]
解の質を高めるために強化学習支援遺伝的プログラミングアルゴリズム(RL-GP)を提案する。
効率的な学習を通じて得られる超ヒューリスティックなルールは、プロジェクトチームを形成する際の意思決定支援として利用することができる。
論文 参考訳(メタデータ) (2023-04-08T14:32:12Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Divide & Conquer Imitation Learning [75.31752559017978]
模倣学習は学習プロセスをブートストラップするための強力なアプローチである。
本稿では,専門的軌道の状態から複雑なロボットタスクを模倣する新しいアルゴリズムを提案する。
提案手法は,非ホロノミックナビゲーションタスクを模倣し,非常に高いサンプル効率で複雑なロボット操作タスクにスケールすることを示す。
論文 参考訳(メタデータ) (2022-04-15T09:56:50Z) - A Framework for Fairness: A Systematic Review of Existing Fair AI
Solutions [4.594159253008448]
公正性の研究の大部分は、機械学習の実践者がアルゴリズムを設計しながらバイアスを監査するために使用できるツールの開発に費やされている。
実際には、これらの公平性ソリューションの応用例が欠如している。
このレビューでは、定義されたアルゴリズムバイアス問題と提案された公正解空間の詳細な概要について述べる。
論文 参考訳(メタデータ) (2021-12-10T17:51:20Z) - Beyond Algorithmic Bias: A Socio-Computational Interrogation of the
Google Search by Image Algorithm [0.799536002595393]
アルゴリズムを、すべての年齢と4種以上の人種の40万以上の顔で提示することで、監査する。
このアルゴリズムは、しばしば、女性および非白人個人を単純化し、ステレオタイピングし、識別する、白人男性の家長構造を再現する。
論文 参考訳(メタデータ) (2021-05-26T21:40:43Z) - Does Fair Ranking Improve Minority Outcomes? Understanding the Interplay
of Human and Algorithmic Biases in Online Hiring [9.21721532941863]
我々は、雇用者の仕事状況や固有のバイアスなど、オンライン雇用プラットフォームにおける性別バイアスの源泉を分析した。
結果から, 公平なランキングアルゴリズムは, 少数民族の選抜率を向上するが, 求職状況や候補者のプロファイルに大きく依存していることが示唆された。
論文 参考訳(メタデータ) (2020-12-01T11:45:27Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - Algorithms for Hiring and Outsourcing in the Online Labor Market [12.893230873578878]
労働者をアウトソーシングし、雇用するためのアルゴリズムを概ね提供する。
私たちはこのモデルチーム形成をアウトソーシングと呼びます。
私たちの貢献は、チームメンバを雇い、解雇し、タスクをアウトソーシングするための効率的なオンラインコスト最小化アルゴリズムです。
論文 参考訳(メタデータ) (2020-02-16T18:56:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。