論文の概要: Super-intelligence or Superstition? Exploring Psychological Factors Underlying Unwarranted Belief in AI Predictions
- arxiv url: http://arxiv.org/abs/2408.06602v2
- Date: Mon, 19 Aug 2024 22:51:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 19:00:29.687006
- Title: Super-intelligence or Superstition? Exploring Psychological Factors Underlying Unwarranted Belief in AI Predictions
- Title(参考訳): 超知能か迷信か?AI予測における未知の信念に基づく心理学的要因の探索
- Authors: Eunhae Lee, Pat Pataranutaporn, Judith Amores, Pattie Maes,
- Abstract要約: AI予測の信条は、占星術とパーソナリティ心理学に基づく予測の信条と正に相関している。
驚くべきことに、認知スタイルは予測に対する信念に大きな影響を与えなかった。
これらの結果は、AIにおける「合理的迷信」現象を強調しており、信念は批判的評価よりも精神的直感によって駆動される。
- 参考スコア(独自算出の注目度): 27.11904776371284
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study investigates psychological factors influencing belief in AI predictions about personal behavior, comparing it to belief in astrology and personality-based predictions. Through an experiment with 238 participants, we examined how cognitive style, paranormal beliefs, AI attitudes, personality traits, and other factors affect perceived validity, reliability, usefulness, and personalization of predictions from different sources. Our findings reveal that belief in AI predictions is positively correlated with belief in predictions based on astrology and personality psychology. Notably, paranormal beliefs and positive AI attitudes significantly increased perceived validity, reliability, usefulness, and personalization of AI predictions. Conscientiousness was negatively correlated with belief in predictions across all sources, and interest in the prediction topic increased believability across predictions. Surprisingly, cognitive style did not significantly influence belief in predictions. These results highlight the "rational superstition" phenomenon in AI, where belief is driven more by mental heuristics and intuition than critical evaluation. We discuss implications for designing AI systems and communication strategies that foster appropriate trust and skepticism. This research contributes to our understanding of the psychology of human-AI interaction and offers insights for the design and deployment of AI systems.
- Abstract(参考訳): 本研究では、個人の行動に関するAI予測に対する信念に影響を与える心理的要因を、占星術と人格に基づく予測に対する信念と比較した。
238人の被験者による実験を通じて,認知スタイル,超常的信念,AI態度,性格特性,その他の要因が,異なる情報源からの予測の妥当性,信頼性,有用性,パーソナライズにどのように影響するかを検討した。
その結果、AI予測に対する信念は、占星術とパーソナリティ心理学に基づく予測に対する信念と正の相関があることが判明した。
特に、異常な信念と肯定的なAI態度は、AI予測の妥当性、信頼性、有用性、パーソナライゼーションを著しく向上させた。
良心はすべての情報源の予測に対する信念と負の相関がみられ、予測トピックに対する関心は予測に対する信頼性を高めた。
驚くべきことに、認知スタイルは予測に対する信念に大きな影響を与えなかった。
これらの結果は、AIにおける「合理的迷信」現象を強調しており、信念は批判的評価よりも精神的ヒューリスティックや直観によって駆動される。
適切な信頼と懐疑を育むAIシステムやコミュニケーション戦略を設計する上での意義について論じる。
本研究は,人間-AIインタラクションの心理学的理解に寄与し,AIシステムの設計と展開に関する洞察を提供する。
関連論文リスト
- Performative Prediction on Games and Mechanism Design [69.7933059664256]
エージェントが過去の正確性に基づいて予測を信頼するかを判断する集団リスクジレンマについて検討する。
予測が集合的な結果を形成するにつれて、社会福祉は関心の指標として自然に現れる。
よりよいトレードオフを実現し、それらをメカニズム設計に使用する方法を示します。
論文 参考訳(メタデータ) (2024-08-09T16:03:44Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Learning Theory of Mind via Dynamic Traits Attribution [59.9781556714202]
本稿では,過去のトラジェクトリからアクターの潜在特性ベクトルを生成するニューラルToMアーキテクチャを提案する。
この特性ベクトルは、予測ニューラルネットワークの高速重み付けスキームを介して予測機構を乗法的に変調する。
実験により,高速重量はエージェントの特性をモデル化し,マインドリーディング能力を向上させるために優れた誘導バイアスを与えることが示された。
論文 参考訳(メタデータ) (2022-04-17T11:21:18Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Role of Human-AI Interaction in Selective Prediction [20.11364033416315]
我々は、AIシステムの遅延決定について、異なる種類の情報を人間に伝達する影響について研究する。
我々は,AIの予測は明らかにせず,遅延する決定を人間に伝えることで,人間のパフォーマンスを大幅に向上させることが可能であることを示す。
論文 参考訳(メタデータ) (2021-12-13T16:03:13Z) - Explainable AI for Psychological Profiling from Digital Footprints: A
Case Study of Big Five Personality Predictions from Spending Data [0.0]
説明可能なAI(XAI)が、デジタルフットプリントから心理的特徴を分類するモデルの検証、質問、改善にどのように役立つかを示します。
まず,グローバルなルール抽出が,モデルがパーソナリティを最も予測的に識別する消費パターンにどのように光を当てるかを示す。
第2に,個人が個々人格クラスに割り当てられていることを示すために,現地ルール抽出を実装した。
論文 参考訳(メタデータ) (2021-11-12T19:28:56Z) - How to "Improve" Prediction Using Behavior Modification [0.0]
データサイエンス研究者は予測を改善するアルゴリズム、モデル、アプローチを設計する。
より大きく、よりリッチなデータによって予測精度が向上する。
プラットフォームは、予測値に向かってユーザの振る舞いをプッシュすることで、より正確な予測精度を秘かに達成することができる。
我々の導出は、データ科学者、プラットフォーム、顧客、そして行動が操作される人間に対して、そのような行動修正がもたらす影響を解明する。
論文 参考訳(メタデータ) (2020-08-26T12:39:35Z) - Does Explainable Artificial Intelligence Improve Human Decision-Making? [17.18994675838646]
我々は、AI(制御)を使わずに客観的な人間の意思決定精度を、AI予測(説明なし)とAI予測(説明なし)とを比較して評価する。
あらゆる種類のAI予測は、ユーザの判断精度を改善する傾向がありますが、説明可能なAIが有意義な影響を与えるという決定的な証拠はありません。
我々の結果は、少なくともいくつかの状況において、説明可能なAIが提供する「なぜ」情報は、ユーザの意思決定を促進することができないことを示唆している。
論文 参考訳(メタデータ) (2020-06-19T15:46:13Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。