論文の概要: Heuristics and Biases in AI Decision-Making: Implications for Responsible AGI
- arxiv url: http://arxiv.org/abs/2410.02820v2
- Date: Thu, 13 Mar 2025 19:55:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:05:09.101160
- Title: Heuristics and Biases in AI Decision-Making: Implications for Responsible AGI
- Title(参考訳): AI意思決定におけるヒューリスティックスとバイアス:責任あるAGIの意義
- Authors: Payam Saeedi, Mahsa Goodarzi, M Abdullah Canbaz,
- Abstract要約: GPT-4o, Gemma 2, Llama 3.1の3大言語モデル(LLM)における認知バイアスの存在について検討した。
この研究は、9つの確立された認知バイアスにわたる1,500の実験を使用して、モデルの反応と一貫性を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: We investigate the presence of cognitive biases in three large language models (LLMs): GPT-4o, Gemma 2, and Llama 3.1. The study uses 1,500 experiments across nine established cognitive biases to evaluate the models' responses and consistency. GPT-4o demonstrated the strongest overall performance. Gemma 2 showed strengths in addressing the sunk cost fallacy and prospect theory, however its performance varied across different biases. Llama 3.1 consistently underperformed, relying on heuristics and exhibiting frequent inconsistencies and contradictions. The findings highlight the challenges of achieving robust and generalizable reasoning in LLMs, and underscore the need for further development to mitigate biases in artificial general intelligence (AGI). The study emphasizes the importance of integrating statistical reasoning and ethical considerations in future AI development.
- Abstract(参考訳): GPT-4o, Gemma 2, Llama 3.1の3大言語モデル(LLM)における認知バイアスの存在について検討した。
この研究は、9つの確立された認知バイアスにわたる1,500の実験を使用して、モデルの反応と一貫性を評価する。
GPT-4oは全体的に最も高い性能を示した。
Gemma 2は、サンクコストの低下と予測理論に対処する上での強みを示したが、その性能は様々なバイアスで異なっていた。
ラマ3.1は一貫して性能が劣り、ヒューリスティックに頼り、矛盾や矛盾が頻発した。
この結果は、LLMにおいて堅牢で一般化可能な推論を実現することの課題を強調し、人工知能(AGI)におけるバイアスを軽減するためのさらなる開発の必要性を浮き彫りにしている。
この研究は、将来のAI開発において統計的推論と倫理的考察を統合することの重要性を強調している。
関連論文リスト
- ExaGPT: Example-Based Machine-Generated Text Detection for Human Interpretability [62.285407189502216]
LLM(Large Language Models)によって生成されたテキストの検出は、誤った判断によって致命的な誤りを引き起こす可能性がある。
本稿では,人間の意思決定プロセスに根ざした解釈可能な検出手法であるExaGPTを紹介する。
以上の結果から,ExaGPTは従来の強力な検出器よりも最大で40.9ポイントの精度を1%の偽陽性率で大きく上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2025-02-17T01:15:07Z) - An Empirical Analysis on Large Language Models in Debate Evaluation [10.677407097411768]
GPT-3.5 や GPT-4 のような先進大言語モデル (LLM) の機能と固有バイアスを議論評価の文脈で検討する。
GPT-3.5 と GPT-4 の両者に一貫した偏りがみられた。
また, GPT-3.5 および GPT-4 の語彙バイアスも明らかにした。
論文 参考訳(メタデータ) (2024-05-28T18:34:53Z) - Incoherent Probability Judgments in Large Language Models [5.088721610298991]
自己回帰型大言語モデル(LLM)による確率判断のコヒーレンスを評価する。
これらのモデルから得られる判断は、しばしば不整合であり、確率論の規則から人間のような体系的な逸脱を示す。
論文 参考訳(メタデータ) (2024-01-30T00:40:49Z) - Use of probabilistic phrases in a coordination game: human versus GPT-4 [0.0]
英語話者は確率的フレーズを使って、出来事の確率や可能性に関する情報を伝える。
まず,コーディネートゲームにおいて,確率的フレーズ23の確率とあいまいさを推定する能力を評価した。
その結果,ヒトの中央値とGPT4は一致した確率推定を割り当てた。
論文 参考訳(メタデータ) (2023-10-16T16:14:27Z) - The Impact of Explanations on Fairness in Human-AI Decision-Making: Protected vs Proxy Features [25.752072910748716]
説明は、人間とAIチームがより公平な意思決定のバイアスに対処するのに役立ちます。
モデルフェアネスに対する参加者の認識に及ぼす保護的・代理的特徴の有無の影響について検討した。
説明は直接的ではあるが間接的偏見を検出するのに役立ちます。
論文 参考訳(メタデータ) (2023-10-12T16:00:16Z) - Uncertain Evidence in Probabilistic Models and Stochastic Simulators [80.40110074847527]
我々は、不確実性を伴う観測を伴う確率論的モデルにおいて、ベイズ的推論を行うという問題について考察する。
我々は、不確実な証拠をどう解釈するかを探求し、潜伏変数の推論に関連する適切な解釈の重要性を拡大する。
我々は、不確実な証拠を説明するための具体的なガイドラインを考案し、特に一貫性に関する新しい洞察を提供する。
論文 参考訳(メタデータ) (2022-10-21T20:32:59Z) - Reconciling Individual Probability Forecasts [78.0074061846588]
データに同意する2つの当事者は、個々の確率をモデル化する方法に異を唱えることができない。
個々の確率は不可知であるが、計算的かつデータ効率のよいプロセスで競合できると結論付ける。
論文 参考訳(メタデータ) (2022-09-04T20:20:35Z) - Naturalistic Causal Probing for Morpho-Syntax [76.83735391276547]
スペインにおける実世界のデータに対する入力レベルの介入に対する自然主義的戦略を提案する。
提案手法を用いて,共同設立者から文章中の形態・症状の特徴を抽出する。
本研究では,事前学習したモデルから抽出した文脈化表現に対する性別と数字の因果効果を解析するために,本手法を適用した。
論文 参考訳(メタデータ) (2022-05-14T11:47:58Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - Correct block-design experiments mitigate temporal correlation bias in
EEG classification [68.85562949901077]
[1]の主主張は極めて過大評価されており、他の分析は間違った方法論的選択によって深刻な欠陥を負っていることを示す。
脳波の時間相関が2つの実験環境で同じモデルをテストすることによって分類精度に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2020-11-25T22:25:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。