論文の概要: Does ChatGPT resemble humans in language use?
- arxiv url: http://arxiv.org/abs/2303.08014v1
- Date: Fri, 10 Mar 2023 10:47:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 14:27:08.513091
- Title: Does ChatGPT resemble humans in language use?
- Title(参考訳): ChatGPTは言語で人間に似ているか?
- Authors: Zhenguang G. Cai, David A. Haslett, Xufeng Duan, Shuqi Wang, Martin J.
Pickering
- Abstract要約: 大規模言語モデル(LLM)は、言語を解釈し、生成する際、顕著な能力を示す。
本稿では,ChatGPTが人間の言語処理をかなり模倣できることを示す。
人々が言語を学び、使う方法に関する洞察を提供する可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) and LLM-driven chatbots such as ChatGPT have
shown remarkable capacities in comprehending and producing language. However,
their internal workings remain a black box in cognitive terms, and it is
unclear whether LLMs and chatbots can develop humanlike characteristics in
language use. Cognitive scientists have devised many experiments that probe,
and have made great progress in explaining, how people process language. We
subjected ChatGPT to 12 of these experiments, pre-registered and with 1,000
runs per experiment. In 10 of them, ChatGPT replicated the human pattern of
language use. It associated unfamiliar words with different meanings depending
on their forms, continued to access recently encountered meanings of ambiguous
words, reused recent sentence structures, reinterpreted implausible sentences
that were likely to have been corrupted by noise, glossed over errors, drew
reasonable inferences, associated causality with different discourse entities
according to verb semantics, and accessed different meanings and retrieved
different words depending on the identity of its interlocutor. However, unlike
humans, it did not prefer using shorter words to convey less informative
content and it did not use context to disambiguate syntactic ambiguities. We
discuss how these convergences and divergences may occur in the transformer
architecture. Overall, these experiments demonstrate that LLM-driven chatbots
like ChatGPT are capable of mimicking human language processing to a great
extent, and that they have the potential to provide insights into how people
learn and use language.
- Abstract(参考訳): 大規模言語モデル(llms)やchatgptのようなllm駆動のチャットボットは、理解と生成に著しい能力を示している。
しかし、その内部動作は認知的にもブラックボックスのままであり、llmやチャットボットが言語使用において人間的な特徴を発達させることができるかどうかは不明である。
認知科学者は、多くの実験を考案し、人々が言語をどのように処理するかを説明することに大きく進歩しました。
chatgptを事前登録し、1実験あたり1000ランの12実験に適用した。
そのうち10では、ChatGPTは人間の言語使用パターンを再現した。
It associated unfamiliar words with different meanings depending on their forms, continued to access recently encountered meanings of ambiguous words, reused recent sentence structures, reinterpreted implausible sentences that were likely to have been corrupted by noise, glossed over errors, drew reasonable inferences, associated causality with different discourse entities according to verb semantics, and accessed different meanings and retrieved different words depending on the identity of its interlocutor.
しかし、人間とは異なり、より情報的な内容を伝えるために短い言葉を使うことは好ましくなく、統語的曖昧さを曖昧にするために文脈を使用しなかった。
これらの収束と分岐がトランスアーキテクチャでどのように起こるかについて議論する。
全体として、これらの実験は、chatgptのようなllm駆動のチャットボットが、人間の言語処理をかなり模倣することができること、そして、人々が言語を学び、使用する方法に関する洞察を提供する可能性があることを示している。
関連論文リスト
- Towards a Psychology of Machines: Large Language Models Predict Human
Memory [0.0]
本研究では,言語ベースのメモリタスクにおいて,ChatGPTが人間のパフォーマンスを予測する能力について検討する。
本研究では,人間とChatGPTの文関連性評価,ChatGPTのヤードパス文の記憶可能性評価,およびガーデンパス文の自然記憶の測定を行った。
論文 参考訳(メタデータ) (2024-03-08T08:41:14Z) - Divergences between Language Models and Human Brains [63.405788999891335]
最近の研究は、言語モデルの内部表現(LM)を用いて脳信号が効果的に予測できることを示唆している。
我々は、LMと人間が言語をどのように表現し、使用するかに明確な違いがあることを示します。
我々は、社会的・情緒的知性と身体的常識という、LMによってうまく捉えられていない2つの領域を識別する。
論文 参考訳(メタデータ) (2023-11-15T19:02:40Z) - Counting the Bugs in ChatGPT's Wugs: A Multilingual Investigation into
the Morphological Capabilities of a Large Language Model [23.60677380868016]
大規模言語モデル (LLM) は近年,人間の言語スキルと比較する上で,目覚ましい言語能力に達している。
そこで本研究では,4言語でChatGPTの形態的能力の厳密な分析を行う。
ChatGPTは、特に英語の目的構築システムでは大幅に性能が低下している。
論文 参考訳(メタデータ) (2023-10-23T17:21:03Z) - Playing with Words: Comparing the Vocabulary and Lexical Richness of
ChatGPT and Humans [3.0059120458540383]
ChatGPTのような生成言語モデルは、テキストの生成方法を変える革命を引き起こした。
ChatGPTのようなツールの使用は、使用する語彙や語彙の豊かさを増減するか?
これは、AI生成コンテンツに含まれないコンテンツは、人気が減り、最終的には失われる傾向があるため、言葉に影響を及ぼす。
論文 参考訳(メタデータ) (2023-08-14T21:19:44Z) - ChatGPT and Simple Linguistic Inferences: Blind Spots and Blinds [51.220650412095665]
本稿では,人間にとって容易な単純な推論タスクに焦点をあてる。
我々は, (i) 文法的に特定された含意, (ii) 不確実性のある明らかな副詞を持つ前提, (iii) 単調性含意を目標とする。
以上の結果から,モデルがこのような推論に苦慮し,中程度の精度で精度が低いことが示唆された。
論文 参考訳(メタデータ) (2023-05-24T06:41:09Z) - The language of sounds unheard: Exploring musical timbre semantics of
large language models [0.0]
近年の大型言語モデル(LLM)の普及を考えると、そのようなモデルが人間のものと類似した知覚的意味論の組織を示すかどうかを問うた。
異なるチャットで複数の応答を抽出した。
ChatGPTは人間の評価と部分的にしか相関しないセマンティックプロファイルを作成したが、音楽音のよく知られた心理物理学的次元に沿って頑健な一致を示した。
論文 参考訳(メタデータ) (2023-04-16T16:50:25Z) - ChatGPT Beyond English: Towards a Comprehensive Evaluation of Large
Language Models in Multilingual Learning [70.57126720079971]
大規模言語モデル(LLM)は、自然言語処理(NLP)において最も重要なブレークスルーとして登場した。
本稿では,高,中,低,低リソースの37言語を対象として,ChatGPTを7つのタスクで評価する。
従来のモデルと比較すると,様々なNLPタスクや言語に対するChatGPTの性能は低下していた。
論文 参考訳(メタデータ) (2023-04-12T05:08:52Z) - Collateral facilitation in humans and language models [0.6091702876917281]
人間は、非常に異常な単語に対して、同様の処理の利点を示す。
本稿では、人間の言語理解と言語モデルによる予測の両方を理解することの意味について論じる。
論文 参考訳(メタデータ) (2022-11-09T21:08:08Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - Subject Verb Agreement Error Patterns in Meaningless Sentences: Humans
vs. BERT [64.40111510974957]
英語における主語数合意に意味が干渉するかどうかを検証する。
意味的によく形づくられた、意味のないアイテムを生成します。
BERTと人間はどちらも、セマンティックな操作に敏感である。
論文 参考訳(メタデータ) (2022-09-21T17:57:23Z) - Speakers Fill Lexical Semantic Gaps with Context [69.30534067031734]
我々は単語の語彙的あいまいさを意味のエントロピーとして運用する。
単語のあいまいさの推定値と,WordNetにおける単語の同義語数との間には,有意な相関関係が認められた。
これは、あいまいさの存在下では、話者が文脈をより情報的にすることで補うことを示唆している。
論文 参考訳(メタデータ) (2020-10-05T17:19:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。