論文の概要: Superhuman Artificial Intelligence Can Improve Human Decision Making by
Increasing Novelty
- arxiv url: http://arxiv.org/abs/2303.07462v2
- Date: Fri, 14 Apr 2023 17:53:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 16:05:52.891945
- Title: Superhuman Artificial Intelligence Can Improve Human Decision Making by
Increasing Novelty
- Title(参考訳): 超人人工知能は、新規性を高めて人間の意思決定を改善する
- Authors: Minkyu Shin, Jin Kim, Bas van Opheusden, and Thomas L. Griffiths
- Abstract要約: 我々は過去71年間のプロの囲碁選手による580万件以上の移動決定を分析した。
超人的AIの出現により、超人的人間ははるかに優れた決定を下し始めた。
- 参考スコア(独自算出の注目度): 8.120494737877799
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How will superhuman artificial intelligence (AI) affect human decision
making? And what will be the mechanisms behind this effect? We address these
questions in a domain where AI already exceeds human performance, analyzing
more than 5.8 million move decisions made by professional Go players over the
past 71 years (1950-2021). To address the first question, we use a superhuman
AI program to estimate the quality of human decisions across time, generating
58 billion counterfactual game patterns and comparing the win rates of actual
human decisions with those of counterfactual AI decisions. We find that humans
began to make significantly better decisions following the advent of superhuman
AI. We then examine human players' strategies across time and find that novel
decisions (i.e., previously unobserved moves) occurred more frequently and
became associated with higher decision quality after the advent of superhuman
AI. Our findings suggest that the development of superhuman AI programs may
have prompted human players to break away from traditional strategies and
induced them to explore novel moves, which in turn may have improved their
decision-making.
- Abstract(参考訳): 超人的人工知能(AI)は人間の意思決定にどのように影響を与えるのか?
この効果の背後にあるメカニズムは何でしょう?
これらの疑問に対処するため、過去71年間(1950-2021年)にAIが人間のパフォーマンスを上回る領域で、プロの囲碁選手による580万件以上の意思決定を分析した。
最初の質問に対処するために、私たちは超人的AIプログラムを使用して、時間にわたって人間の決定の質を推定し、58億の偽のゲームパターンを生成し、実際の人間の決定の勝利率と偽のAI決定の勝利率を比較する。
人間は超人的AIの出現によって、はるかに優れた決定を下し始めた。
そして、時間をかけて人間の戦略を調べ、新しい決定(つまり、以前は観測されていなかった動き)がより頻繁に発生し、超人的AIの出現後、より高い意思決定品質に結びつくことを発見した。
我々の研究は、超人的AIプログラムの開発によって、人間のプレイヤーが伝統的な戦略から脱却し、新しい動きを探求するきっかけとなったかもしれないことを示唆している。
関連論文リスト
- Utilizing Human Behavior Modeling to Manipulate Explanations in AI-Assisted Decision Making: The Good, the Bad, and the Scary [19.884253335528317]
AIモデルの最近の進歩は、人間の意思決定プロセスへのAIベースの意思決定支援の統合を高めている。
AIによる意思決定の可能性を完全に解き放つために、研究者たちは、人間がAIレコメンデーションを最終決定にどのように組み込むかをコンピュータでモデル化した。
より適切にAIレコメンデーションに頼れるように、人間の意思決定者にAIの説明を提供することは、一般的な慣習となっている。
論文 参考訳(メタデータ) (2024-11-02T18:33:28Z) - Contrastive Explanations That Anticipate Human Misconceptions Can Improve Human Decision-Making Skills [24.04643864795939]
人々の意思決定能力は、意思決定支援にAIに頼ると、しばしば改善に失敗する。
ほとんどのAIシステムは、AIの決定を正当化する一方的な説明を提供するが、ユーザーの思考を考慮しない。
我々は、AIの選択と予測された、おそらく人間の選択との違いを説明する、人間中心のコントラスト的な説明を生成するためのフレームワークを紹介します。
論文 参考訳(メタデータ) (2024-10-05T18:21:04Z) - Towards Human-AI Deliberation: Design and Evaluation of LLM-Empowered Deliberative AI for AI-Assisted Decision-Making [47.33241893184721]
AIによる意思決定において、人間はしばしばAIの提案を受動的にレビューし、それを受け入れるか拒否するかを決定する。
意思決定における人間-AIの意見の対立に関する議論と人間のリフレクションを促進する新しい枠組みであるHuman-AI Deliberationを提案する。
人間の熟考の理論に基づいて、この枠組みは人間とAIを次元レベルの意見の引用、熟考的議論、意思決定の更新に携わる。
論文 参考訳(メタデータ) (2024-03-25T14:34:06Z) - HumanoidBench: Simulated Humanoid Benchmark for Whole-Body Locomotion and Manipulation [50.616995671367704]
そこで本研究では,人型ロボットが器用な手を備えた,高次元シミュレーション型ロボット学習ベンチマークHumanoidBenchを提案する。
その結果,現在最先端の強化学習アルゴリズムがほとんどのタスクに支障をきたすのに対して,階層的学習アプローチはロバストな低レベルポリシーに支えられた場合,優れた性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-03-15T17:45:44Z) - Close the Gates: How we can keep the future human by choosing not to develop superhuman general-purpose artificial intelligence [0.20919309330073077]
今後数年で、人類は汎用AIを作成することによって、不可逆的にしきい値を越えるかもしれない。
これは、人間の社会の中核的な側面を上回り、多くの前例のないリスクを生じさせ、いくつかの意味で制御不能になる可能性がある。
まず、ニューラルネットワークのトレーニングと実行に使用できる計算に厳しい制限を課すことから始めます。
こうした制限がある中で、AIの研究と産業は、人間が理解し制御できる狭義の汎用AIと、そこから大きな利益を享受することのできる汎用AIの両方に焦点を絞ることができる。
論文 参考訳(メタデータ) (2023-11-15T23:41:12Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Best-Response Bayesian Reinforcement Learning with Bayes-adaptive POMDPs
for Centaurs [22.52332536886295]
本稿では,人間とAIの相互作用を逐次ゲームとして新たに定式化する。
このケースでは、有界人間によるより良い意思決定を支援するというAIの問題は、ベイズ対応のPOMDPに還元される。
我々は、機械が自身の限界と人間の助けを借りて改善する方法について議論する。
論文 参考訳(メタデータ) (2022-04-03T21:00:51Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Aligning Superhuman AI with Human Behavior: Chess as a Model System [5.236087378443016]
我々は、人間のチェスゲームで訓練されたAlpha-Zeroのカスタマイズ版であるMaiaを開発し、既存のエンジンよりもはるかに高い精度で人間の動きを予測する。
人間が次の動きで大きな間違いを犯すかどうかを予測する2つのタスクに対して、我々は、競争ベースラインを大幅に上回るディープニューラルネットワークを開発する。
論文 参考訳(メタデータ) (2020-06-02T18:12:52Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。