論文の概要: A Unifying Framework for Combining Complementary Strengths of Humans and
ML toward Better Predictive Decision-Making
- arxiv url: http://arxiv.org/abs/2204.10806v1
- Date: Fri, 22 Apr 2022 16:41:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-25 14:46:10.524020
- Title: A Unifying Framework for Combining Complementary Strengths of Humans and
ML toward Better Predictive Decision-Making
- Title(参考訳): 予測的意思決定のための人間とmlの相補的強みを結合する統一的枠組み
- Authors: Charvi Rastogi, Liu Leqi, Kenneth Holstein, Hoda Heidari
- Abstract要約: 我々は、人間-ML予測意思決定システムのコンテキストに特に焦点をあてる。
我々は,人間と機械の意思決定が異なる様々な基準を特徴付ける分類法を紹介した。
我々の分類に基づいて、我々の第2の貢献は、人間とMLの予測決定を最適に集計する方法を定式化する、統一された最適化ベースのフレームワークを提示します。
- 参考スコア(独自算出の注目度): 14.273683978600255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hybrid human-ML systems are increasingly in charge of consequential decisions
in a wide range of domains. A growing body of work has advanced our
understanding of these systems by providing empirical and theoretical analyses.
However, existing empirical results are mixed, and theoretical proposals are
often incompatible with each other. Our goal in this work is to bring
much-needed organization to this field by offering a unifying framework for
understanding conditions under which combining complementary strengths of human
and ML leads to higher quality decisions than those produced by them
individually -- a state to which we refer to as human-ML complementarity. We
focus specifically on the context of human-ML predictive decision-making
systems and investigate optimal ways of combining human and ML-based predictive
decisions, accounting for the underlying causes of variation in their
judgments. Within this scope, we present two crucial contributions. First,
drawing upon prior literature in human psychology, machine learning, and
human-computer interaction, we introduce a taxonomy characterizing a wide
variety of criteria across which human and machine decision-making differ.
Building on our taxonomy, our second contribution presents a unifying
optimization-based framework for formalizing how human and ML predictive
decisions should be aggregated optimally. We show that our proposed framework
encompasses several existing models of human-ML complementarity as special
cases. Last but not least, the exploratory analysis of our framework offers a
critical piece of insight for future work in this area: the mechanism by which
we combine human-ML judgments should be informed by the underlying causes of
their diverging decisions.
- Abstract(参考訳): ハイブリッドな人間-MLシステムは、広範囲のドメインにおける連続的な決定をますます担当している。
成長する研究機関は、経験的および理論的分析を提供することで、これらのシステムに対する理解を深めてきた。
しかし、既存の実験結果は混ざり合っており、理論的な提案はしばしば互いに相容れない。
この研究の目標は、人間とmlの相補的な強みを組み合わせることで、個人が生み出すものよりも高品質な意思決定につながる状況を理解するための統一的な枠組みを提供することで、多くのニーズのある組織をこの分野に持ち込むことです。
我々は,人間-ml予測意思決定システムの文脈に着目し,人間とmlに基づく予測決定を組み合わせる最適な方法を検討し,その判断の変動の根本原因を考察する。
このスコープでは、2つの重要な貢献を行います。
まず、人間の心理学、機械学習、人間とコンピュータの相互作用に関する先行文献をもとに、人間と機械の意思決定が異なる幅広い基準を特徴付ける分類法を導入する。
2つ目の貢献は、人間とmlの予測決定を最適に集約する方法を定式化するための最適化ベースのフレームワークです。
提案するフレームワークは,人間-MLの相補性に関するいくつかの既存モデルを含む。
最後に重要なこととして、このフレームワークの探索分析は、この分野における今後の作業に重要な洞察を与えます。
関連論文リスト
- Cooperative Resilience in Artificial Intelligence Multiagent Systems [2.0608564715600273]
本稿では, 協調レジリエンスの明確な定義とその定量化手法を提案する。
その結果は、集団システムが破壊に直面してどのように準備し、抵抗し、回復し、幸福を維持し、変革するかを分析する上で、レジリエンス指標の重要な役割を強調している。
論文 参考訳(メタデータ) (2024-09-20T03:28:48Z) - Retrieval-Enhanced Machine Learning: Synthesis and Opportunities [60.34182805429511]
検索エンハンスメントは機械学習(ML)の幅広い範囲に拡張できる
この研究は、MLの様々な領域の文献を、現在の文献から欠落している一貫した表記で合成することで、このパラダイムの正式なフレームワークであるRetrieval-Enhanced Machine Learning (REML)を導入する。
本研究の目的は、様々な分野の研究者に対して、検索強化モデルの包括的、正式に構造化された枠組みを付与し、学際的な将来の研究を促進することである。
論文 参考訳(メタデータ) (2024-07-17T20:01:21Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
社会実践, 一貫性, 動的発達という, 心理学に根ざした個性の原則を統合したPersLLMを提案する。
モデルパラメータに直接パーソナリティ特性を組み込み、誘導に対するモデルの抵抗性を高め、一貫性を高め、パーソナリティの動的進化を支援する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Predicting and Understanding Human Action Decisions: Insights from Large Language Models and Cognitive Instance-Based Learning [0.0]
大きな言語モデル(LLM)は、様々なタスクにまたがってその能力を実証している。
本稿では,LLMの推論と生成能力を利用して,2つの逐次意思決定タスクにおける人間の行動を予測する。
我々は,LLMの性能を,人間の経験的意思決定を模倣した認知的インスタンスベース学習モデルと比較した。
論文 参考訳(メタデータ) (2024-07-12T14:13:06Z) - Exploring the Potential of Human-LLM Synergy in Advancing Qualitative Analysis: A Case Study on Mental-Illness Stigma [6.593116883521213]
大規模言語モデル(LLM)は、既存のスキーム内で定性的なコーディングを行うことができるが、協調的な人間-LLM発見の可能性はまだ探索されていない。
我々は,人間とLLMの協調パラダイムを活用して,概念化を促進し,質的研究を促進する新しい手法であるCHALETを提案する。
論文 参考訳(メタデータ) (2024-05-09T13:27:22Z) - Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - Computational Experiments Meet Large Language Model Based Agents: A
Survey and Perspective [16.08517740276261]
計算実験は複雑なシステムを研究するための貴重な方法として登場した。
エージェントベースモデリング(ABM)における実際の社会システムを正確に表現することは、人間の多様性と複雑な特性のために困難である。
大規模言語モデル(LLM)の統合が提案され、エージェントが人為的な能力を持つことができる。
論文 参考訳(メタデータ) (2024-02-01T01:17:46Z) - Confounding-Robust Policy Improvement with Human-AI Teams [9.823906892919746]
限界感度モデル(MSM)を用いて,人間とAIの協調作業における非観測的コンバウンディングに対処する新しい手法を提案する。
このアプローチでは、ドメインの専門知識とAI駆動の統計モデルを組み合わせることで、他の方法では隠される可能性がある共同ファウンダーの可能性を考慮しています。
論文 参考訳(メタデータ) (2023-10-13T02:39:52Z) - Exploring Collaboration Mechanisms for LLM Agents: A Social Psychology View [60.80731090755224]
本稿では,理論的洞察を用いた実用実験により,現代NLPシステム間の協調機構を解明する。
我々は, LLMエージェントからなる4つの独特な社会をつくり, それぞれのエージェントは, 特定の特性(容易性, 過信性)によって特徴づけられ, 異なる思考パターン(議論, ふりかえり)と協調する。
以上の結果から, LLMエージェントは, 社会心理学理論を反映した, 適合性やコンセンサスリーディングといった人間的な社会的行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-10-03T15:05:52Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z) - Human-Algorithm Collaboration: Achieving Complementarity and Avoiding
Unfairness [92.26039686430204]
慎重に設計されたシステムであっても、補完的な性能はあり得ないことを示す。
まず,簡単な人間アルゴリズムをモデル化するための理論的枠組みを提案する。
次に、このモデルを用いて相補性が不可能な条件を証明する。
論文 参考訳(メタデータ) (2022-02-17T18:44:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。