論文の概要: Towards Human-AI Complementarity in Matching Tasks
- arxiv url: http://arxiv.org/abs/2508.13285v1
- Date: Mon, 18 Aug 2025 18:02:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.697957
- Title: Towards Human-AI Complementarity in Matching Tasks
- Title(参考訳): マッチングタスクにおける人間とAIの相補性を目指して
- Authors: Adrian Arnaiz-Rodriguez, Nina Corvelo Benz, Suhas Thejaswi, Nuria Oliver, Manuel Gomez-Rodriguez,
- Abstract要約: 協調的なアプローチをとるデータ駆動型アルゴリズムマッチングシステムを提案する。
Comatchは最も自信のある決定のみを選択し、残りの決定を人間の意思決定者に委ねる。
その結果, マッチングによって生成されるマッチング結果が, ヒトの参加者, あるいはアルゴリズムのマッチングによって生成したマッチング結果よりも優れていたことが示唆された。
- 参考スコア(独自算出の注目度): 18.703064369029022
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data-driven algorithmic matching systems promise to help human decision makers make better matching decisions in a wide variety of high-stakes application domains, such as healthcare and social service provision. However, existing systems are not designed to achieve human-AI complementarity: decisions made by a human using an algorithmic matching system are not necessarily better than those made by the human or by the algorithm alone. Our work aims to address this gap. To this end, we propose collaborative matching (comatch), a data-driven algorithmic matching system that takes a collaborative approach: rather than making all the matching decisions for a matching task like existing systems, it selects only the decisions that it is the most confident in, deferring the rest to the human decision maker. In the process, comatch optimizes how many decisions it makes and how many it defers to the human decision maker to provably maximize performance. We conduct a large-scale human subject study with $800$ participants to validate the proposed approach. The results demonstrate that the matching outcomes produced by comatch outperform those generated by either human participants or by algorithmic matching on their own. The data gathered in our human subject study and an implementation of our system are available as open source at https://github.com/Networks-Learning/human-AI-complementarity-matching.
- Abstract(参考訳): データ駆動のアルゴリズムマッチングシステムは、医療やソーシャルサービス提供など、さまざまな高度なアプリケーション領域において、人間の意思決定者によるより良いマッチング決定を支援することを約束する。
しかし、既存のシステムは人間とAIの相補性を達成するように設計されていない。
私たちの仕事は、このギャップに対処することを目的としています。
そこで我々は,データ駆動型アルゴリズムマッチングシステムであるコラボレーティブマッチング(マッチング)を提案する。既存のシステムのようなマッチングタスクのマッチング決定を全て行うのではなく,最も自信のある決定のみを選択し,残りの決定を人間に委ねる。
このプロセスでは、コラッチは、どれだけの意思決定を行うか、そして、人間の意思決定者に対して、パフォーマンスを確実に最大化するためにどれだけの判断を下すか、を最適化します。
提案手法の有効性を検証するため,800ドルの参加者による大規模人体調査を行った。
その結果, マッチングによって生成されるマッチング結果が, ヒトの参加者, あるいはアルゴリズムのマッチングによって生成したマッチング結果よりも優れていたことが示唆された。
人文科目で収集したデータとシステムの実装はhttps://github.com/Networks-Learning/ Human-AI-complementarity-matchingでオープンソースとして公開されている。
関連論文リスト
- Designing Algorithmic Delegates: The Role of Indistinguishability in Human-AI Handoff [9.004254472240177]
人々はAIエージェントにタスクを委譲する傾向が強まっている。
多くの場合、人間の意思決定者は、直面している意思決定問題の特定の事例の特性に基づいて、AIエージェントに委任するかどうかを選択する。
最適なデリゲートは、最適なアルゴリズムエージェントよりも任意に優れたチームメイトであることが示される。
論文 参考訳(メタデータ) (2025-06-03T17:36:20Z) - Does AI help humans make better decisions? A statistical evaluation framework for experimental and observational studies [0.43981305860983716]
我々は、人間とAI、AIの3つの代替意思決定システムのパフォーマンスを比較する方法を示す。
リスクアセスメントの勧告は、現金保釈を課す裁判官の決定の分類精度を向上しないことがわかった。
論文 参考訳(メタデータ) (2024-03-18T01:04:52Z) - MaxMin-RLHF: Alignment with Diverse Human Preferences [101.57443597426374]
Reinforcement Learning from Human Feedback (RLHF) は、言語モデルと人間の嗜好を一致させる。
予測最大化アルゴリズムを用いて嗜好分布の混合を学習し、人間の嗜好をよりよく表現する。
従来のRLHFアルゴリズムよりも16%以上の勝利率向上を実現している。
論文 参考訳(メタデータ) (2024-02-14T03:56:27Z) - Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Learning Complementary Policies for Human-AI Teams [22.13683008398939]
本稿では,効果的な行動選択のための新しい人間-AI協調のための枠組みを提案する。
私たちのソリューションは、人間とAIの相補性を利用して意思決定報酬を最大化することを目的としています。
論文 参考訳(メタデータ) (2023-02-06T17:22:18Z) - Human-Algorithm Collaboration: Achieving Complementarity and Avoiding
Unfairness [92.26039686430204]
慎重に設計されたシステムであっても、補完的な性能はあり得ないことを示す。
まず,簡単な人間アルゴリズムをモデル化するための理論的枠組みを提案する。
次に、このモデルを用いて相補性が不可能な条件を証明する。
論文 参考訳(メタデータ) (2022-02-17T18:44:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。