論文の概要: Developmental trajectories of decision making and affective dynamics in large language models
- arxiv url: http://arxiv.org/abs/2601.14268v1
- Date: Wed, 31 Dec 2025 02:43:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.81774
- Title: Developmental trajectories of decision making and affective dynamics in large language models
- Title(参考訳): 大規模言語モデルにおける意思決定と感情力学の発達軌跡
- Authors: Zhihao Wang, Yiyang Liu, Ting Wang, Zhiyuan Liu,
- Abstract要約: 大規模言語モデル(LLM)は、医学や臨床心理学でますます使われている。
ギャンブルタスクにおいて,OpenAIモデルと人間を比較し,幸福度を繰り返し評価した。
新しいモデルはより多くのリスクを負い、パヴロヴィアのアプローチと回避のパターンがより人間的であった。
- 参考スコア(独自算出の注目度): 21.421586104730295
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly used in medicine and clinical workflows, yet we know little about their decision and affective profiles. Taking a historically informed outlook on the future, we treated successive OpenAI models as an evolving lineage and compared them with humans in a gambling task with repeated happiness ratings. Computational analyses showed that some aspects became more human-like: newer models took more risks and displayed more human-like patterns of Pavlovian approach and avoidance. At the same time, distinctly non-human signatures emerged: loss aversion dropped below neutral levels, choices became more deterministic than in humans, affective decay increased across versions and exceeded human levels, and baseline mood remained chronically higher than in humans. These "developmental" trajectories reveal an emerging psychology of machines and have direct implications for AI ethics and for thinking about how LLMs might be integrated into clinical decision support and other high-stakes domains.
- Abstract(参考訳): 大規模言語モデル(LLM)は医学や臨床のワークフローでますます使われていますが、その決定や感情的なプロファイルについてはほとんど分かっていません。
今後の展望を歴史的に把握し, 連続したOpenAIモデルを進化する系統として扱い, ギャンブル作業において人間と比較し, 幸福度を繰り返した。
新しいモデルはより多くのリスクを取り、パヴロヴィア的なアプローチと回避のパターンがより人間らしく見えるようになった。
損失回避は中性レベル以下に低下し、選択は人間よりも決定論的になり、バージョンによって感情の崩壊は増加し、人間のレベルを超え、ベースラインのムードは人間よりも慢性的に高くなっていた。
これらの「発達的」軌道は、機械の出現する心理学を明らかにし、AI倫理やLSMが臨床的決定支援やその他の高い領域にどのように統合されるかを考えるための直接的な意味を持つ。
関連論文リスト
- HumanLLM: Towards Personalized Understanding and Simulation of Human Nature [72.55730315685837]
HumanLLMは個人のパーソナライズされた理解とシミュレーションのために設計された基礎モデルである。
私たちはまず、Reddit、Twitter、Blogger、Amazonといったプラットフォーム上で、現実世界のユーザデータをキュレートした大規模なコーパスであるCognitive Genomeを構築しました。
次に、多様な学習タスクを定式化し、教師付き微調整を行い、モデルの幅広い個人化された人間の行動、思考、経験を予測する。
論文 参考訳(メタデータ) (2026-01-22T09:27:27Z) - HUMANLLM: Benchmarking and Reinforcing LLM Anthropomorphism via Human Cognitive Patterns [59.17423586203706]
本稿では,心理的パターンを因果力の相互作用として扱うフレームワークであるHUMANLLMを提案する。
12,000の学術論文から244のパターンを構築し、2-5のパターンが相互に強化、衝突、変調されるシナリオ11,359を合成する。
我々の二重レベルチェックリストは、個々のパターンの忠実度と創発的なマルチパターンのダイナミクスを評価し、強い人間のアライメントを達成する。
論文 参考訳(メタデータ) (2026-01-15T08:56:53Z) - MEMO-Bench: A Multiple Benchmark for Text-to-Image and Multimodal Large Language Models on Human Emotion Analysis [53.012111671763776]
そこで本研究では、7,145枚の肖像画からなる総合的なベンチマークであるMEMO-Benchを紹介した。
以上の結果から,既存のT2Iモデルは負のモデルよりも肯定的な感情を生成するのに効果的であることが示唆された。
MLLMは人間の感情の識別と認識に一定の効果を示すが、人間のレベルの正確さには欠ける。
論文 参考訳(メタデータ) (2024-11-18T02:09:48Z) - Can Language Models Learn to Skip Steps? [59.84848399905409]
我々は推論においてステップをスキップする能力について研究する。
効率を高めたり認知負荷を減らすためのステップをスキップする人間とは異なり、モデルはそのようなモチベーションを持っていない。
私たちの研究は、人間のようなステップスキッピング能力に関する最初の調査である。
論文 参考訳(メタデータ) (2024-11-04T07:10:24Z) - Generative Models, Humans, Predictive Models: Who Is Worse at High-Stakes Decision Making? [10.225573060836478]
大規模な生成モデル(LM)は、これまで予測モデルや人間によって行われていた意思決定タスクに既に使用されている。
我々は、高い意思決定タスクである再帰的予測において、人気のあるLMをテストに投入した。
論文 参考訳(メタデータ) (2024-10-20T19:00:59Z) - Studying and improving reasoning in humans and machines [0.0]
大規模言語モデル(LLM)と人間における推論について検討し比較する。
以上の結果から, 含んでいるモデルの多くは, しばしばエラーを起こし, インデューサに基づく人間の推論に類似した推論誤差を示していた。
論文 参考訳(メタデータ) (2023-09-21T21:02:05Z) - From DDMs to DNNs: Using process data and models of decision-making to improve human-AI interactions [1.024113475677323]
人工知能(AI)の研究は、意思決定が時間とともにどのように現れるかについての洞察に強い焦点をあてることから恩恵を受けるだろう、と私たちは主張する。
まず,ノイズの蓄積による決定を前提とした,高度に確立された計算フレームワークを提案する。
次に、マルチエージェントAIにおける現在のアプローチが、プロセスデータや意思決定のモデルをどの程度取り入れているかについて議論する。
論文 参考訳(メタデータ) (2023-08-29T11:27:22Z) - Learning signatures of decision making from many individuals playing the
same game [54.33783158658077]
我々は、個人の「行動スタイル」を符号化する表現を学習する予測フレームワークを設計する。
我々は,3本腕のバンディットタスクを行う1,000人の人間による大規模行動データセットに本手法を適用した。
論文 参考訳(メタデータ) (2023-02-21T21:41:53Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。