論文の概要: A Taxonomy of Human and ML Strengths in Decision-Making to Investigate
Human-ML Complementarity
- arxiv url: http://arxiv.org/abs/2204.10806v3
- Date: Sun, 5 Nov 2023 21:39:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 01:53:13.114486
- Title: A Taxonomy of Human and ML Strengths in Decision-Making to Investigate
Human-ML Complementarity
- Title(参考訳): 意思決定における人間とmlの強みの分類法 : ヒト-ml相補性の検討
- Authors: Charvi Rastogi, Liu Leqi, Kenneth Holstein, Hoda Heidari
- Abstract要約: 本稿では,人間とMLに基づく意思決定の違いを特徴付ける分類法を提案する。
相補性の許容条件を検討するための数学的アグリゲーションフレームワークを提供する。
- 参考スコア(独自算出の注目度): 30.23729174053152
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hybrid human-ML systems increasingly make consequential decisions in a wide
range of domains. These systems are often introduced with the expectation that
the combined human-ML system will achieve complementary performance, that is,
the combined decision-making system will be an improvement compared with either
decision-making agent in isolation. However, empirical results have been mixed,
and existing research rarely articulates the sources and mechanisms by which
complementary performance is expected to arise. Our goal in this work is to
provide conceptual tools to advance the way researchers reason and communicate
about human-ML complementarity. Drawing upon prior literature in human
psychology, machine learning, and human-computer interaction, we propose a
taxonomy characterizing distinct ways in which human and ML-based
decision-making can differ. In doing so, we conceptually map potential
mechanisms by which combining human and ML decision-making may yield
complementary performance, developing a language for the research community to
reason about design of hybrid systems in any decision-making domain. To
illustrate how our taxonomy can be used to investigate complementarity, we
provide a mathematical aggregation framework to examine enabling conditions for
complementarity. Through synthetic simulations, we demonstrate how this
framework can be used to explore specific aspects of our taxonomy and shed
light on the optimal mechanisms for combining human-ML judgments
- Abstract(参考訳): ハイブリッドなヒューマンMLシステムは、広範囲のドメインで連続的な決定をする傾向にある。
これらのシステムはしばしば、統合された人間-MLシステムが相補的な性能を達成することを期待して導入され、つまり、統合された意思決定システムは、分離された意思決定エージェントと比較して改善される。
しかし、実験結果が混ざり合っており、既存の研究では相補的な性能が期待される源泉や機構が明確化されることは稀である。
この研究の目標は、研究者が人間-MLの相補性について推論しコミュニケーションする方法を進めるための概念的なツールを提供することです。
本稿では,人間の心理学,機械学習,人間とコンピュータの相互作用に関する先行研究に基づいて,人間とMLによる意思決定の相違を特徴付ける分類法を提案する。
そこで我々は,人間と機械学習の意思決定の組み合わせが相補的な性能をもたらす可能性のメカニズムを概念的にマッピングし,あらゆる意思決定領域におけるハイブリッドシステムの設計を推論する言語を開発する。
相補性を調べるために我々の分類学をどのように利用できるかを説明するために,相補性を実現するための数学的集約フレームワークを提供する。
合成シミュレーションにより, この枠組みを用いて分類学の特定の側面を探索し, 人間の-ml判断を組み合わせるための最適メカニズムを明らかにした。
関連論文リスト
- Exploring the Potential of Human-LLM Synergy in Advancing Qualitative Analysis: A Case Study on Mental-Illness Stigma [6.593116883521213]
大規模言語モデル(LLM)は、既存のスキーム内で定性的なコーディングを行うことができるが、協調的な人間-LLM発見の可能性はまだ探索されていない。
我々は,人間とLLMの協調パラダイムを活用して,概念化を促進し,質的研究を促進する新しい手法であるCHALETを提案する。
論文 参考訳(メタデータ) (2024-05-09T13:27:22Z) - Generative manufacturing systems using diffusion models and ChatGPT [13.877460292768946]
ジェネレーティブ・マニュファクチャリング・システムズ(Generative Manufacturing Systems, GMS)は、自律的な製造資産を効果的に管理・調整するための新しいアプローチである。
GMSは、予測された未来から暗黙的に学習するために、拡散モデルやChatGPTを含む生成AIを使用している。
この研究は、生成したソリューションの本質的な創造性と多様性を強調し、人間中心の意思決定を促進する。
論文 参考訳(メタデータ) (2024-05-02T02:50:58Z) - Transforming Competition into Collaboration: The Revolutionary Role of Multi-Agent Systems and Language Models in Modern Organizations [0.0]
本稿では,マルチエージェントシステム理論(SMA)と大規模言語モデル(LLM)に基づく計算エンティティがユーザインタラクションに与える影響について考察する。
提案手法では,大規模言語モデル (LLM) から発達したエージェントを用いて,行動要素を考慮したプロトタイピングを行う。
我々は,多エージェントシステム理論(SMA)と大規模言語モデル(LLM)に基づく革新的な利用に基づいて,組織戦略に有用なエージェントの開発の可能性を示す。
論文 参考訳(メタデータ) (2024-03-12T15:56:10Z) - Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - Computational Experiments Meet Large Language Model Based Agents: A
Survey and Perspective [16.08517740276261]
計算実験は複雑なシステムを研究するための貴重な方法として登場した。
エージェントベースモデリング(ABM)における実際の社会システムを正確に表現することは、人間の多様性と複雑な特性のために困難である。
大規模言語モデル(LLM)の統合が提案され、エージェントが人為的な能力を持つことができる。
論文 参考訳(メタデータ) (2024-02-01T01:17:46Z) - Confounding-Robust Policy Improvement with Human-AI Teams [9.823906892919746]
限界感度モデル(MSM)を用いて,人間とAIの協調作業における非観測的コンバウンディングに対処する新しい手法を提案する。
このアプローチでは、ドメインの専門知識とAI駆動の統計モデルを組み合わせることで、他の方法では隠される可能性がある共同ファウンダーの可能性を考慮しています。
論文 参考訳(メタデータ) (2023-10-13T02:39:52Z) - Exploring Collaboration Mechanisms for LLM Agents: A Social Psychology
View [64.43238868957813]
本稿では,理論的洞察を用いた実用実験により,現代NLPシステム間の協調機構を解明する。
我々は, LLMエージェントからなる4つの独特な社会をつくり, それぞれのエージェントは, 特定の特性(容易性, 過信性)によって特徴づけられ, 異なる思考パターン(議論, ふりかえり)と協調する。
以上の結果から, LLMエージェントは, 社会心理学理論を反映した, 適合性やコンセンサスリーディングといった人間的な社会的行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-10-03T15:05:52Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Training Socially Aligned Language Models on Simulated Social
Interactions [99.39979111807388]
AIシステムにおける社会的アライメントは、確立された社会的価値に応じてこれらのモデルが振舞うことを保証することを目的としている。
現在の言語モデル(LM)は、トレーニングコーパスを独立して厳格に複製するように訓練されている。
本研究は,シミュレートされた社会的相互作用からLMを学習することのできる,新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:17:36Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - Human-Algorithm Collaboration: Achieving Complementarity and Avoiding
Unfairness [92.26039686430204]
慎重に設計されたシステムであっても、補完的な性能はあり得ないことを示す。
まず,簡単な人間アルゴリズムをモデル化するための理論的枠組みを提案する。
次に、このモデルを用いて相補性が不可能な条件を証明する。
論文 参考訳(メタデータ) (2022-02-17T18:44:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。