論文の概要: The truth is no diaper: Human and AI-generated associations to emotional words
- arxiv url: http://arxiv.org/abs/2511.04077v1
- Date: Thu, 06 Nov 2025 05:32:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.314913
- Title: The truth is no diaper: Human and AI-generated associations to emotional words
- Title(参考訳): 真実はおむつではない:人間とAIが生成した感情的言葉の関連
- Authors: Špela Vintar, Jan Jona Javoršek,
- Abstract要約: 人間の連想行動と大きな言語モデルを比較した。
感情的な単語の関連性を探究し、大きな言語モデルが人間と同じような方法で関連性を生成するかどうかを判断する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human word associations are a well-known method of gaining insight into the internal mental lexicon, but the responses spontaneously offered by human participants to word cues are not always predictable as they may be influenced by personal experience, emotions or individual cognitive styles. The ability to form associative links between seemingly unrelated concepts can be the driving mechanisms of creativity. We perform a comparison of the associative behaviour of humans compared to large language models. More specifically, we explore associations to emotionally loaded words and try to determine whether large language models generate associations in a similar way to humans. We find that the overlap between humans and LLMs is moderate, but also that the associations of LLMs tend to amplify the underlying emotional load of the stimulus, and that they tend to be more predictable and less creative than human ones.
- Abstract(参考訳): ヒューマンワードアソシエーションは、内的精神のレキシコンについての洞察を得るためのよく知られた方法であるが、人間の参加者が単語キューに対して自発的に提供する反応は、個人的な経験や感情、個人の認知スタイルに影響される可能性があるため、常に予測可能であるとは限らない。
一見無関係な概念間の連想的なリンクを形成する能力は、創造性の駆動メカニズムである。
我々は,人間の連想行動の比較を,大規模言語モデルと比較した。
より具体的には、感情的な単語の関連性を探究し、大きな言語モデルが人間と同じような方法で関連性を生成するかどうかを判断する。
人間とLLMの重なり合いは適度であるが、LLMの関連性は刺激の根底にある感情的負荷を増幅する傾向にあり、人間よりも予測可能で創造性が低い傾向にある。
関連論文リスト
- Large Language Models are Highly Aligned with Human Ratings of Emotional Stimuli [0.62914438169038]
感情は、普通の場所と高いストレスの両方のタスクにおいて、人間の行動と認知に大きな影響を及ぼす。
大規模言語モデルは、感情的に負荷された刺激や状況がどのように評価されるかを理解することによって、議論を知らせるべきである。
これらのケースにおけるモデルと人間の行動との整合性は、特定の役割や相互作用に対するLLMの有効性を知らせることができる。
論文 参考訳(メタデータ) (2025-08-19T19:22:00Z) - Heartificial Intelligence: Exploring Empathy in Language Models [8.517406772939292]
小さな言語モデルと大きな言語モデルは、認知的共感タスクにおいて人間よりも一貫して優れていた。
認知的強みにもかかわらず、小・大言語モデルともに、人間に比べて感情的共感が有意に低かった。
論文 参考訳(メタデータ) (2025-07-30T14:09:33Z) - Emergence of Hierarchical Emotion Organization in Large Language Models [25.806354070542678]
大規模言語モデル(LLM)は自然に人間の心理モデルと一致する階層的な感情木を形成する。
また,社会経済的な人格における感情認識の体系的バイアスを明らかにする。
以上の結果から,より優れたモデル評価の開発に認知的基礎理論を用いることの可能性が示唆された。
論文 参考訳(メタデータ) (2025-07-12T15:12:46Z) - AI shares emotion with humans across languages and cultures [12.530921452568291]
言語文化グループとモデル家族間の人間とAIの感情的アライメントを評価する。
分析の結果,LLM由来の感情空間は人間の知覚と構造的に一致していることがわかった。
モデル表現は、異なる感情カテゴリーにまたがって安定かつ自然に調節可能であることを示す。
論文 参考訳(メタデータ) (2025-06-11T14:42:30Z) - Shaping Shared Languages: Human and Large Language Models' Inductive Biases in Emergent Communication [0.09999629695552195]
ヒトと大言語モデル(LLM)の帰納バイアスに最適化された人工言語がどのように進化するかを検討する。
我々は、人間が協力しても、あらゆる状況において信頼できるコミュニケーションを可能にする、参照接頭辞が出現することを示します。
論文 参考訳(メタデータ) (2025-03-06T12:47:54Z) - How Deep is Love in LLMs' Hearts? Exploring Semantic Size in Human-like Cognition [75.11808682808065]
本研究では,大言語モデル (LLM) が意味的サイズを理解する上で類似した傾向を示すかどうかを検討する。
以上の結果から,マルチモーダルトレーニングはLLMにとって人間的な理解を深める上で不可欠であることが示唆された。
最後に,LLMが実世界のWebショッピングシナリオにおいて,より大きなセマンティックサイズを持つ注目の見出しに影響されているかを検討する。
論文 参考訳(メタデータ) (2025-03-01T03:35:56Z) - Human-like conceptual representations emerge from language prediction [72.5875173689788]
大規模言語モデル(LLMs)は、言語データに対する次世代の予測を通じてのみ訓練され、顕著な人間的な振る舞いを示す。
これらのモデルは、人間に似た概念を発達させ、もしそうなら、そのような概念はどのように表現され、組織化されるのか?
以上の結果から,LLMは言語記述から他の概念に関する文脈的手がかりに関して柔軟に概念を導出できることが示唆された。
これらの結果は、構造化された人間のような概念表現が、現実世界の接地なしに言語予測から自然に現れることを証明している。
論文 参考訳(メタデータ) (2025-01-21T23:54:17Z) - Measuring Psychological Depth in Language Models [50.48914935872879]
本稿では,文学理論に根ざした新たな枠組みである心理的深度尺度(PDS)を紹介する。
PDS(0.72 クリッペンドルフのα)に基づいて人間が一貫して物語を評価できることを示し、我々の枠組みを実証的に検証する。
驚いたことに、GPT-4のストーリーはRedditから入手した高評価の人文記事と統計的に区別できない。
論文 参考訳(メタデータ) (2024-06-18T14:51:54Z) - Perspective-taking and Pragmatics for Generating Empathetic Responses
Focused on Emotion Causes [50.569762345799354]
i) 相手の感情が発話から引き起こされる原因となる単語を特定することと, (ii) 応答生成における特定の単語を反映することである。
社会的認知からインスピレーションを得て、生成的推定を用いて、感情が単語レベルのラベルのない発話から単語を推論する。
論文 参考訳(メタデータ) (2021-09-18T04:22:49Z) - Disambiguating Affective Stimulus Associations for Robot Perception and
Dialogue [67.89143112645556]
知覚された聴覚刺激と感情表現の関連性を学ぶことができるNICOロボットを提供します。
NICOは、感情駆動対話システムの助けを借りて、個人と特定の刺激の両方でこれを行うことができる。
ロボットは、実際のHRIシナリオにおいて、被験者の聴覚刺激の楽しさを判断するために、この情報を利用することができる。
論文 参考訳(メタデータ) (2021-03-05T20:55:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。