論文の概要: Why Did Apple Fall To The Ground: Evaluating Curiosity In Large Language Model
- arxiv url: http://arxiv.org/abs/2510.20635v1
- Date: Thu, 23 Oct 2025 15:05:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:18.229103
- Title: Why Did Apple Fall To The Ground: Evaluating Curiosity In Large Language Model
- Title(参考訳): Appleが下降した理由:大規模言語モデルにおける好奇心の評価
- Authors: Haoyu Wang, Sihang Jiang, Yuyan Chen, Yitong Wang, Yanghua Xiao,
- Abstract要約: 大規模言語モデル(LLM)が示す好奇心の程度を評価するための包括的評価フレームワークを設計する。
その結果、LLMは人間よりも知識の渇きが強いが、不確実な環境に直面すると保守的な選択をしがちであることがわかった。
これらの結果から,LLMはヒトと同様の好奇心を示す可能性が示唆され,今後の学習能力の発達に対する実験的支援が期待できる。
- 参考スコア(独自算出の注目度): 67.37154331548413
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Curiosity serves as a pivotal conduit for human beings to discover and learn new knowledge. Recent advancements of large language models (LLMs) in natural language processing have sparked discussions regarding whether these models possess capability of curiosity-driven learning akin to humans. In this paper, starting from the human curiosity assessment questionnaire Five-Dimensional Curiosity scale Revised (5DCR), we design a comprehensive evaluation framework that covers dimensions such as Information Seeking, Thrill Seeking, and Social Curiosity to assess the extent of curiosity exhibited by LLMs. The results demonstrate that LLMs exhibit a stronger thirst for knowledge than humans but still tend to make conservative choices when faced with uncertain environments. We further investigated the relationship between curiosity and thinking of LLMs, confirming that curious behaviors can enhance the model's reasoning and active learning abilities. These findings suggest that LLMs have the potential to exhibit curiosity similar to that of humans, providing experimental support for the future development of learning capabilities and innovative research in LLMs.
- Abstract(参考訳): 好奇心は、人間が新しい知識を発見し、学習するための重要な導管として機能する。
自然言語処理における大規模言語モデル(LLM)の最近の進歩は、これらのモデルが人間に似た好奇心駆動学習能力を持っているかどうかという議論を巻き起こしている。
本稿では,5次元好奇心尺度改訂(5DCR)から,LLMが提示する好奇心の程度を評価するために,情報探索,Thrill Seeking,Social Curiosityなどの次元をカバーする包括的評価フレームワークを設計する。
その結果、LLMは人間よりも知識の渇きが強いが、不確実な環境に直面すると保守的な選択をしがちであることがわかった。
さらに、好奇心とLLMの思考の関係について検討し、好奇心がモデルの推論と積極的学習能力を高めることを確認した。
これらの結果から,LLMはヒトと同様の好奇心を示す可能性が示唆され,今後の学習能力の発達とLLMにおける革新的な研究を実験的に支援している。
関連論文リスト
- The Curious Case of Curiosity across Human Cultures and LLMs [45.37389175832353]
多様なトピックにまたがる実世界の多国間データセットであるAnswersを用いて,好奇心の文化的変動を調査した。
大規模言語モデルは異文化間の多様性をフラットにし、西洋諸国における好奇心の表現方法とより密接に一致している。
次に、LLMの好奇心を誘導する微調整戦略を検討し、人間モデルアライメントギャップを最大50%狭める。
論文 参考訳(メタデータ) (2025-10-14T19:42:24Z) - How Deep is Love in LLMs' Hearts? Exploring Semantic Size in Human-like Cognition [75.11808682808065]
本研究では,大言語モデル (LLM) が意味的サイズを理解する上で類似した傾向を示すかどうかを検討する。
以上の結果から,マルチモーダルトレーニングはLLMにとって人間的な理解を深める上で不可欠であることが示唆された。
最後に,LLMが実世界のWebショッピングシナリオにおいて,より大きなセマンティックサイズを持つ注目の見出しに影響されているかを検討する。
論文 参考訳(メタデータ) (2025-03-01T03:35:56Z) - Revisiting the Reliability of Psychological Scales on Large Language Models [62.57981196992073]
本研究の目的は,大規模言語モデルにパーソナリティアセスメントを適用することの信頼性を明らかにすることである。
GPT-3.5、GPT-4、Gemini-Pro、LLaMA-3.1などのモデル毎の2,500設定の分析により、様々なLCMがビッグファイブインベントリに応答して一貫性を示すことが明らかになった。
論文 参考訳(メタデータ) (2023-05-31T15:03:28Z) - Do Large Language Models Know What They Don't Know? [74.65014158544011]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクに優れた知識を持つ。
膨大な知識にもかかわらず、LLMはそれらが適合し理解できる情報の量によって制限されている。
本研究の目的は,LLMの自己理解能力を評価することである。
論文 参考訳(メタデータ) (2023-05-29T15:30:13Z) - From Psychological Curiosity to Artificial Curiosity: Curiosity-Driven
Learning in Artificial Intelligence Tasks [56.20123080771364]
心理学的好奇心は、探索と情報取得を通じて学習を強化するために、人間の知性において重要な役割を果たす。
人工知能(AI)コミュニティでは、人工好奇心は効率的な学習に自然な本質的な動機を与える。
CDLはますます人気を博し、エージェントは新たな知識を学習するために自己動機付けされている。
論文 参考訳(メタデータ) (2022-01-20T17:07:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。