論文の概要: Human-Algorithm Collaboration: Achieving Complementarity and Avoiding
Unfairness
- arxiv url: http://arxiv.org/abs/2202.08821v1
- Date: Thu, 17 Feb 2022 18:44:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 17:42:23.919042
- Title: Human-Algorithm Collaboration: Achieving Complementarity and Avoiding
Unfairness
- Title(参考訳): 人間とアルゴリズムの協調:相補性と不公平を回避する
- Authors: Kate Donahue, Alexandra Chouldechova, Krishnaram Kenthapadi
- Abstract要約: 慎重に設計されたシステムであっても、補完的な性能はあり得ないことを示す。
まず,簡単な人間アルゴリズムをモデル化するための理論的枠組みを提案する。
次に、このモデルを用いて相補性が不可能な条件を証明する。
- 参考スコア(独自算出の注目度): 92.26039686430204
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Much of machine learning research focuses on predictive accuracy: given a
task, create a machine learning model (or algorithm) that maximizes accuracy.
In many settings, however, the final prediction or decision of a system is
under the control of a human, who uses an algorithm's output along with their
own personal expertise in order to produce a combined prediction. One ultimate
goal of such collaborative systems is "complementarity": that is, to produce
lower loss (equivalently, greater payoff or utility) than either the human or
algorithm alone. However, experimental results have shown that even in
carefully-designed systems, complementary performance can be elusive. Our work
provides three key contributions. First, we provide a theoretical framework for
modeling simple human-algorithm systems and demonstrate that multiple prior
analyses can be expressed within it. Next, we use this model to prove
conditions where complementarity is impossible, and give constructive examples
of where complementarity is achievable. Finally, we discuss the implications of
our findings, especially with respect to the fairness of a classifier. In sum,
these results deepen our understanding of key factors influencing the combined
performance of human-algorithm systems, giving insight into how algorithmic
tools can best be designed for collaborative environments.
- Abstract(参考訳): 機械学習の研究の多くは予測精度に焦点を当てている。タスクが与えられたら、精度を最大化する機械学習モデル(またはアルゴリズム)を作成する。
しかし、多くの環境では、システムの最終的な予測や決定は、アルゴリズムのアウトプットと自身の個人的な専門知識を使って複合的な予測を生成する人間の管理下にある。
このような協調システムの最終的な目標は「相補性」(complementarity) であり、すなわち、人間やアルゴリズム単独よりも損失の少ないもの(ほぼ同値)を生み出すことである。
しかし, 慎重に設計したシステムにおいても, 相補的な性能は明らかである。
私たちの仕事は3つの重要な貢献をします。
まず,簡単な人間-アルゴリズム系をモデル化するための理論的枠組みを提供し,複数の事前解析をその内部で表現できることを実証する。
次に、このモデルを用いて相補性が不可能な条件を証明し、相補性が達成可能な構成例を示す。
最後に,本研究の意義について,特に分類器の公平性について論じる。
まとめると、これらの結果は人間のアルゴリズムシステムの複合性能に影響を及ぼす重要な要因の理解を深め、アルゴリズムツールが協調環境のためにどのように最適に設計できるかを洞察する。
関連論文リスト
- A Human-Centered Approach for Improving Supervised Learning [0.44378250612683995]
本稿では、パフォーマンス、時間、リソースの制約のバランスをとる方法を示す。
この研究のもう1つの目標は、人間中心のアプローチを用いて、エンサンブルスをより説明しやすく、理解しやすくすることである。
論文 参考訳(メタデータ) (2024-10-14T10:27:14Z) - Learning-Augmented Algorithms with Explicit Predictors [67.02156211760415]
アルゴリズム設計の最近の進歩は、過去のデータと現在のデータから得られた機械学習モデルによる予測の活用方法を示している。
この文脈における以前の研究は、予測器が過去のデータに基づいて事前訓練され、ブラックボックスとして使用されるパラダイムに焦点を当てていた。
本研究では,予測器を解き,アルゴリズムの課題の中で生じる学習問題を統合する。
論文 参考訳(メタデータ) (2024-03-12T08:40:21Z) - Human Expertise in Algorithmic Prediction [16.104330706951004]
アルゴリズムの予測に人間の専門知識を取り入れるための新しい枠組みを導入する。
我々のアプローチは、人間の判断を利用して、アルゴリズム的に区別できない入力を区別する。
論文 参考訳(メタデータ) (2024-02-01T17:23:54Z) - Incentive Mechanism Design for Distributed Ensemble Learning [15.687660150828906]
分散アンサンブル学習(DEL)では、分散学習者の複数のモデルをトレーニングし、それらの予測を組み合わせてパフォーマンスを向上させる。
本稿では,DELのインセンティブ機構設計に関する第1報について述べる。
提案手法は,不均一・コミュニケーションコストの学習者に対して,トレーニングデータ量と報奨額の両方を規定する。
論文 参考訳(メタデータ) (2023-10-13T00:34:12Z) - Predictive Coding beyond Correlations [59.47245250412873]
このようなアルゴリズムのうちの1つは、予測符号化と呼ばれ、因果推論タスクを実行することができるかを示す。
まず、予測符号化の推論過程における簡単な変化が、因果グラフを再利用したり再定義したりすることなく、介入を計算できることを示す。
論文 参考訳(メタデータ) (2023-06-27T13:57:16Z) - Algorithmic Collective Action in Machine Learning [35.91866986642348]
機械学習アルゴリズムをデプロイするデジタルプラットフォーム上でのアルゴリズム集合行動について研究する。
本稿では,企業の学習アルゴリズムと相互作用する集合の単純な理論的モデルを提案する。
我々は,フリーランサーのためのギグプラットフォームから数万の履歴書を含むスキル分類タスクについて,体系的な実験を行った。
論文 参考訳(メタデータ) (2023-02-08T18:55:49Z) - Sample Efficient Learning of Predictors that Complement Humans [5.830619388189559]
我々は、専門家の推論における補完的予測子の学習の利点を初めて理論的に分析する。
我々は、人間の専門家予測の最小限のデータを必要とするアクティブな学習スキームを設計する。
論文 参考訳(メタデータ) (2022-07-19T23:19:25Z) - Non-Clairvoyant Scheduling with Predictions Revisited [77.86290991564829]
非論理的スケジューリングでは、優先度不明な処理条件でジョブをスケジューリングするためのオンライン戦略を見つけることが課題である。
我々はこのよく研究された問題を、アルゴリズム設計に(信頼できない)予測を統合する、最近人気の高い学習強化された設定で再検討する。
これらの予測には所望の特性があり, 高い性能保証を有するアルゴリズムと同様に, 自然な誤差測定が可能であることを示す。
論文 参考訳(メタデータ) (2022-02-21T13:18:11Z) - Robustification of Online Graph Exploration Methods [59.50307752165016]
我々は、古典的で有名なオンライングラフ探索問題の学習強化版について研究する。
本稿では,予測をよく知られたNearest Neighbor(NN)アルゴリズムに自然に統合するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-10T10:02:31Z) - BUSTLE: Bottom-Up Program Synthesis Through Learning-Guided Exploration [72.88493072196094]
プログラムのボトムアップ検索に学習を活用する新しい合成手法を提案する。
特に、入力出力例のセットに基づいて、探索条件中の中間値の合成を優先順位付けするようにモデルを訓練する。
単純な教師付き学習アプローチであっても,学習とボトムアップ検索の組み合わせは極めて効果的であることを示す。
論文 参考訳(メタデータ) (2020-07-28T17:46:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。