論文の概要: Team Formation amidst Conflicts
- arxiv url: http://arxiv.org/abs/2403.00859v1
- Date: Thu, 29 Feb 2024 20:15:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 16:15:03.805898
- Title: Team Formation amidst Conflicts
- Title(参考訳): 紛争中のチーム形成
- Authors: Iasonas Nikolaou, Evimaria Terzi
- Abstract要約: 本研究では、対立の中でチーム形成の問題を定式化する。
目的は、個人のタスク嗜好とそれらの間の対立を考慮して、与えられた能力を持つタスクに個人を割り当てることである。
依存するラウンドリングスキームを主要なツールボックスとして使用し、効率的な近似アルゴリズムを提供する。
- 参考スコア(独自算出の注目度): 4.197110761923661
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we formulate the problem of team formation amidst conflicts.
The goal is to assign individuals to tasks, with given capacities, taking into
account individuals' task preferences and the conflicts between them. Using
dependent rounding schemes as our main toolbox, we provide efficient
approximation algorithms. Our framework is extremely versatile and can model
many different real-world scenarios as they arise in educational settings and
human-resource management. We test and deploy our algorithms on real-world
datasets and we show that our algorithms find assignments that are better than
those found by natural baselines. In the educational setting we also show how
our assignments are far better than those done manually by human experts. In
the human resource management application we show how our assignments increase
the diversity of teams. Finally, using a synthetic dataset we demonstrate that
our algorithms scale very well in practice.
- Abstract(参考訳): 本研究では、対立の中でチーム形成の問題を定式化する。
目的は、個人のタスク嗜好とそれらの間の対立を考慮して、与えられた能力を持つタスクに個人を割り当てることである。
主ツールボックスとして従属的な丸めスキームを用い,効率的な近似アルゴリズムを提供する。
当社のフレームワークは非常に多用途であり,教育環境や人材管理において発生するさまざまな現実シナリオをモデル化することができる。
実世界のデータセット上でアルゴリズムをテストし、デプロイし、我々のアルゴリズムが自然なベースラインで見つかるものよりも優れた割り当てを見つけることを示す。
教育環境では、人間の専門家が手作業で行うよりも、我々の課題がいかに優れているかを示す。
ヒューマンリソース管理アプリケーションでは、タスクがどのようにチームの多様性を高めるかを示します。
最後に、合成データセットを用いて、我々のアルゴリズムが実際に非常にうまくスケールしていることを示します。
関連論文リスト
- A Human-Centered Approach for Improving Supervised Learning [0.44378250612683995]
本稿では、パフォーマンス、時間、リソースの制約のバランスをとる方法を示す。
この研究のもう1つの目標は、人間中心のアプローチを用いて、エンサンブルスをより説明しやすく、理解しやすくすることである。
論文 参考訳(メタデータ) (2024-10-14T10:27:14Z) - Data-CUBE: Data Curriculum for Instruction-based Sentence Representation
Learning [85.66907881270785]
本稿では,学習用マルチタスクデータの順序を列挙するデータカリキュラム,すなわちData-CUBEを提案する。
タスクレベルでは、タスク間の干渉リスクを最小化するために最適なタスクオーダーを見つけることを目的としている。
インスタンスレベルでは、タスク毎のすべてのインスタンスの難易度を測定し、トレーニングのためにそれらを簡単に微分できるミニバッチに分割します。
論文 参考訳(メタデータ) (2024-01-07T18:12:20Z) - Can Foundation Models Watch, Talk and Guide You Step by Step to Make a
Cake? [62.59699229202307]
AIの進歩にもかかわらず、インタラクティブなタスクガイダンスシステムの開発は依然として大きな課題である。
我々は、人間のユーザと人間のインストラクターとの自然なインタラクションに基づいて、新しいマルチモーダルベンチマークデータセット、ウォッチ、トーク、ガイド(WTaG)を作成しました。
いくつかの基礎モデルを活用して、これらのモデルが認識可能なタスクガイダンスに迅速に適応できるかを調査した。
論文 参考訳(メタデータ) (2023-11-01T15:13:49Z) - Improving Generalization of Alignment with Human Preferences through
Group Invariant Learning [56.19242260613749]
Reinforcement Learning from Human Feedback (RLHF) は、人間の好みに合わせた反応の生成を可能にする。
以前の研究は、強化学習(RL)がしばしばショートカットを利用して高い報酬を獲得し、挑戦的なサンプルを見落としていることを示している。
本稿では,複数のデータグループやドメインにまたがる一貫したポリシをRLで学習する,新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-10-18T13:54:15Z) - Designing Closed-Loop Models for Task Allocation [36.04165658325371]
我々は、ブートストラップモデルトレーニングと人間とタスクの類似性に関する弱い事前情報を利用する。
このような弱い事前の使用は、人間の意思決定者が誤りを犯したりバイアスを受けたりしても、タスク割り当て精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-05-31T13:57:56Z) - A Reinforcement Learning-assisted Genetic Programming Algorithm for Team
Formation Problem Considering Person-Job Matching [70.28786574064694]
解の質を高めるために強化学習支援遺伝的プログラミングアルゴリズム(RL-GP)を提案する。
効率的な学習を通じて得られる超ヒューリスティックなルールは、プロジェクトチームを形成する際の意思決定支援として利用することができる。
論文 参考訳(メタデータ) (2023-04-08T14:32:12Z) - Improving Learning-to-Defer Algorithms Through Fine-Tuning [1.066048003460524]
特定の個人とペアを組む場合、学習と遅延のアルゴリズムを改善するために作業する。
微調整は単純な人間のスキルパターンを拾うことができるが、ニュアンスには耐えられない。
学習を改善するために頑健な半教師による今後の研究を提案する。
論文 参考訳(メタデータ) (2021-12-18T19:57:16Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - COG: Connecting New Skills to Past Experience with Offline Reinforcement
Learning [78.13740204156858]
我々は、動的プログラミングによって新しいスキルを拡張するために、事前データを再利用できることを示します。
我々は、新しいタスクを解決するために、以前のデータセットに見られるいくつかの動作をチェーンすることで、アプローチの有効性を実証する。
我々は、高次元画像観察を低レベルのロボット制御コマンドにマッピングし、エンドツーエンドでポリシーを訓練する。
論文 参考訳(メタデータ) (2020-10-27T17:57:29Z) - Human-Robot Team Coordination with Dynamic and Latent Human Task
Proficiencies: Scheduling with Learning Curves [0.0]
ロボットが人間のチームメイトの相対的な強みと学習能力を探索できる新しい資源調整手法を提案する。
我々は、最新の個人労働者の熟練度を発見しながら、頑健なスケジュールを作成し、評価する。
その結果,人間とロボットのコラボレーションには,探索に有利なスケジューリング戦略が有用であることが示唆された。
論文 参考訳(メタデータ) (2020-07-03T19:44:22Z) - Forming Diverse Teams from Sequentially Arriving People [9.247294820004146]
共同作業は、チームや組織が異質なメンバを持つことの恩恵を受けます。
我々は、時間とともに連続して到着する人々から、このような多様なチームを形成する方法を提案する。
実際に、アルゴリズムがチームの多様性を大きく向上させることを示す。
論文 参考訳(メタデータ) (2020-02-25T07:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。