論文の概要: Confidence-weighted integration of human and machine judgments for superior decision-making
- arxiv url: http://arxiv.org/abs/2408.08083v1
- Date: Thu, 15 Aug 2024 11:16:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-16 14:05:59.326846
- Title: Confidence-weighted integration of human and machine judgments for superior decision-making
- Title(参考訳): 優れた意思決定のための信頼度重み付けによる人間と機械の判断の統合
- Authors: Felipe Yáñez, Xiaoliang Luo, Omar Valerio Minero, Bradley C. Love,
- Abstract要約: 近年の研究では、大きな言語モデル(LLM)が特定のタスクにおいて人間を上回ることが示されている。
我々は、LLMよりも悪いパフォーマンスをしているにもかかわらず、人間はチームで価値を付加できることを示した。
人間と機械のチームは、チームメンバーの自信が十分に調整されたときに、各チームメイトを追い越すことができます。
- 参考スコア(独自算出の注目度): 2.4217853168915475
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have emerged as powerful tools in various domains. Recent studies have shown that LLMs can surpass humans in certain tasks, such as predicting the outcomes of neuroscience studies. What role does this leave for humans in the overall decision process? One possibility is that humans, despite performing worse than LLMs, can still add value when teamed with them. A human and machine team can surpass each individual teammate when team members' confidence is well-calibrated and team members diverge in which tasks they find difficult (i.e., calibration and diversity are needed). We simplified and extended a Bayesian approach to combining judgments using a logistic regression framework that integrates confidence-weighted judgments for any number of team members. Using this straightforward method, we demonstrated in a neuroscience forecasting task that, even when humans were inferior to LLMs, their combination with one or more LLMs consistently improved team performance. Our hope is that this simple and effective strategy for integrating the judgments of humans and machines will lead to productive collaborations.
- Abstract(参考訳): 大規模言語モデル(LLM)は、様々な領域において強力なツールとして登場してきた。
近年の研究では、LLMは神経科学研究の結果を予測するなど、特定のタスクにおいて人間を上回る可能性があることが示されている。
全体的な意思決定プロセスにおいて、これが人間にどのような役割を果たすのか?
1つの可能性として、人間はLSMよりも悪いパフォーマンスをしているにもかかわらず、チームで作業するときに価値を付加できる。
人間と機械のチームは、チームメンバーの自信が十分に調整されたときに各チームメイトを上回ることができ、チームメンバーは、彼らが難しいと感じているタスク(キャリブレーションと多様性が必要)を分散します。
われわれはベイジアンアプローチを単純化して拡張し、ロジスティック回帰フレームワークを使って、あらゆるチームメンバーに対する信頼度の高い判断を統合した判断を組み合わせました。
この簡単な方法を用いて、我々は、人間がLLMよりも劣っている場合でも、1つ以上のLLMと組み合わせることでチームのパフォーマンスを継続的に改善する神経科学予測タスクを実演した。
人間と機械の判断を統合するための、シンプルで効果的な戦略が、生産的なコラボレーションに繋がることを期待しています。
関連論文リスト
- Two Heads Are Better Than One: Collaborative LLM Embodied Agents for Human-Robot Interaction [1.6574413179773757]
大規模言語モデル(LLM)は、自然言語コマンドを解釈するために、その膨大な理解を活用できなければならない。
しかし、これらのモデルは幻覚に悩まされ、安全上の問題やタスクからの逸脱を引き起こす可能性がある。
本研究では、一つの独立したAIエージェントに対して複数のコラボレーティブAIシステムがテストされ、他のドメインの成功が人間とロボットのインタラクション性能の改善につながるかどうかを判定した。
論文 参考訳(メタデータ) (2024-11-23T02:47:12Z) - Large Language Models Overcome the Machine Penalty When Acting Fairly but Not When Acting Selfishly or Altruistically [14.576971868730709]
集団と自己利益が不一致の社会ジレンマでは、人々は通常、仲間の人間よりも機械に協力しない。
本研究では,Large Language Models (LLMs) を用いて,この研究課題を解消する可能性を検討する。
以上の結果から,ヒトとの相互作用において,ヒトとヒトの相互作用に匹敵する協力レベルを導出できることが明らかとなった。
論文 参考訳(メタデータ) (2024-09-29T10:11:25Z) - Human-AI collectives produce the most accurate differential diagnoses [0.0]
医師集団と大規模言語モデル(LLM)のハイブリッド集団は,医師集団と医師集団のどちらよりも優れていることを示す。
我々のアプローチは、医療診断のような複雑でオープンな領域における精度を向上させるための、人間と機械の集合的知性の可能性を強調します。
論文 参考訳(メタデータ) (2024-06-21T08:46:30Z) - Large language models surpass human experts in predicting neuroscience results [60.26891446026707]
大きな言語モデル(LLM)は、人間の専門家よりも新しい結果を予測する。
BrainBenchは神経科学の結果を予測するためのベンチマークだ。
我々のアプローチは神経科学に特有ではなく、他の知識集約的な取り組みに伝達可能である。
論文 参考訳(メタデータ) (2024-03-04T15:27:59Z) - Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - Limits of Large Language Models in Debating Humans [0.0]
大きな言語モデル(LLM)は、人間と熟達して対話する能力において顕著な可能性を示してきた。
本論文は,LLMエージェントを現実の人間と組み合わせた事前登録研究により,現在のLLMの限界を検証しようとする試みである。
論文 参考訳(メタデータ) (2024-02-06T03:24:27Z) - Human-Instruction-Free LLM Self-Alignment with Limited Samples [64.69906311787055]
本研究では,人間の関与なしに,大規模言語モデル(LLM)を反復的に自己調整するアルゴリズムを提案する。
既存の研究と異なり、我々のアルゴリズムは人造指示にも報酬にも依存せず、人間の関与を著しく減らしている。
提案手法は,LLMの自己一般化能力を解き明かし,ほぼゼロに近い人的監督と整合性を持たせることができることを示す。
論文 参考訳(メタデータ) (2024-01-06T14:00:12Z) - MAgIC: Investigation of Large Language Model Powered Multi-Agent in
Cognition, Adaptability, Rationality and Collaboration [102.41118020705876]
大規模言語モデル(LLM)は自然言語処理の分野で大きな進歩を遂げている。
アプリケーションがマルチエージェント環境に拡張されるにつれ、包括的な評価フレームワークの必要性が高まっている。
この研究は、マルチエージェント設定内でLLMを評価するために特別に設計された新しいベンチマークフレームワークを導入している。
論文 参考訳(メタデータ) (2023-11-14T21:46:27Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model Collaboration [83.4031923134958]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z) - Unleashing the Emergent Cognitive Synergy in Large Language Models: A Task-Solving Agent through Multi-Persona Self-Collaboration [116.09561564489799]
Solo Performance Promptingは、複数のペルソナと多ターンの自己コラボレーションをすることで、単一のLCMを認知的シナジストに変換する。
認知シナジスト(英: Cognitive Synergist)は、複雑なタスクにおける問題解決を強化するために、複数の心の強みと知識を協調的に結合するインテリジェントエージェントである。
より詳細な分析により,LLMに複数の微粒なペルソナを割り当てることによって,単一あるいは固定数のペルソナに比べて問題解決能力が向上することが示された。
論文 参考訳(メタデータ) (2023-07-11T14:45:19Z) - Kill Chaos with Kindness: Agreeableness Improves Team Performance Under
Uncertainty [0.0]
Agreeablenessは、チームパフォーマンスと重要でない、非常に可変的な関係を示している。
エージェントベースモデル(ABM)は、チームワークに対する性格特性の影響を予測するために使用される。
遺伝的アルゴリズムを用いてABMの限界を探索し、どの特性が最高のチームと最悪のチームと相関しているかを発見する。
論文 参考訳(メタデータ) (2022-08-09T16:04:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。