論文の概要: Emergence of a phonological bias in ChatGPT
- arxiv url: http://arxiv.org/abs/2305.15929v1
- Date: Thu, 25 May 2023 10:57:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 15:49:05.006942
- Title: Emergence of a phonological bias in ChatGPT
- Title(参考訳): ChatGPTにおける音韻的バイアスの発生
- Authors: Juan Manuel Toro
- Abstract要約: 私はChatGPTが人間の言語処理の目印となる音韻的バイアスを示すことを実証する。
ChatGPTは母音上の子音を使って単語を識別する傾向がある。
これは、英語やスペイン語のような子音と母音の相対的な分布が異なる言語で観察される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current large language models, such as OpenAI's ChatGPT, have captured the
public's attention because how remarkable they are in the use of language.
Here, I demonstrate that ChatGPT displays phonological biases that are a
hallmark of human language processing. More concretely, just like humans,
ChatGPT has a consonant bias. That is, the chatbot has a tendency to use
consonants over vowels to identify words. This is observed across languages
that differ in their relative distribution of consonants and vowels such as
English and Spanish. Despite the differences in how current artificial
intelligence language models are trained to process linguistic stimuli and how
human infants acquire language, such training seems to be enough for the
emergence of a phonological bias in ChatGPT
- Abstract(参考訳): OpenAIのChatGPTのような現在の大きな言語モデルは、言語の使用においていかに顕著であるかから、一般大衆の注目を集めている。
ここでは,chatgptが人間の言語処理の要点である音韻バイアスを示すことを示す。
より具体的には、ChatGPTは人間と同じように子音バイアスを持っている。
つまり、このチャットボットは母音上の子音を使って単語を識別する傾向にある。
これは、英語やスペイン語のような子音と母音の相対分布が異なる言語間で観察される。
現在の人工知能言語モデルにおける言語刺激の処理方法と幼児の言語習得方法の違いにもかかわらず、このような訓練はChatGPTにおける音韻的バイアスの出現に十分であると思われる。
関連論文リスト
- Grammaticality Representation in ChatGPT as Compared to Linguists and Laypeople [0.0]
本研究は,148の言語現象について,住民の文法的判断を収集した以前の研究に基づいている。
我々の主な焦点は、これらの言語構成の判断において、ChatGPTを一般人と言語学者の両方と比較することであった。
全体として,ChatGPTと言語学者の間には73%から95%の収束率があり,全体としては89%と推定された。
論文 参考訳(メタデータ) (2024-06-17T00:23:16Z) - What Do Dialect Speakers Want? A Survey of Attitudes Towards Language Technology for German Dialects [60.8361859783634]
我々はドイツ語に関連する方言と地域言語に関する話者を調査した。
回答者は特に、方言入力で動作する潜在的なNLPツールを好んでいる。
論文 参考訳(メタデータ) (2024-02-19T09:15:28Z) - Counting the Bugs in ChatGPT's Wugs: A Multilingual Investigation into
the Morphological Capabilities of a Large Language Model [23.60677380868016]
大規模言語モデル (LLM) は近年,人間の言語スキルと比較する上で,目覚ましい言語能力に達している。
そこで本研究では,4言語でChatGPTの形態的能力の厳密な分析を行う。
ChatGPTは、特に英語の目的構築システムでは大幅に性能が低下している。
論文 参考訳(メタデータ) (2023-10-23T17:21:03Z) - Playing with Words: Comparing the Vocabulary and Lexical Richness of
ChatGPT and Humans [3.0059120458540383]
ChatGPTのような生成言語モデルは、テキストの生成方法を変える革命を引き起こした。
ChatGPTのようなツールの使用は、使用する語彙や語彙の豊かさを増減するか?
これは、AI生成コンテンツに含まれないコンテンツは、人気が減り、最終的には失われる傾向があるため、言葉に影響を及ぼす。
論文 参考訳(メタデータ) (2023-08-14T21:19:44Z) - Ethical ChatGPT: Concerns, Challenges, and Commandments [5.641321839562139]
本稿では、ChatGPTに関する特定の倫理的懸念を強調し、ChatGPTを様々なアプリケーションで使用する際の重要な課題を明らかにする。
ChatGPTの実践的なコマンドも提案されており、アプリケーションにChatGPTを適用する場合のチェックリストガイドラインとして機能する。
論文 参考訳(メタデータ) (2023-05-18T02:04:13Z) - Phoenix: Democratizing ChatGPT across Languages [68.75163236421352]
我々は大規模な言語モデル「フェニックス」をリリースし、オープンソースの英語モデルと中国語モデルの間で競合する性能を実現した。
この作業は、特にOpenAIやローカルなゴーバーメントの制限により、人々がChatGPTを使えない国では、ChatGPTをよりアクセスしやすいものにする上で有益であると考えています。
論文 参考訳(メタデータ) (2023-04-20T16:50:04Z) - ChatGPT Beyond English: Towards a Comprehensive Evaluation of Large
Language Models in Multilingual Learning [70.57126720079971]
大規模言語モデル(LLM)は、自然言語処理(NLP)において最も重要なブレークスルーとして登場した。
本稿では,高,中,低,低リソースの37言語を対象として,ChatGPTを7つのタスクで評価する。
従来のモデルと比較すると,様々なNLPタスクや言語に対するChatGPTの性能は低下していた。
論文 参考訳(メタデータ) (2023-04-12T05:08:52Z) - Improve Bilingual TTS Using Dynamic Language and Phonology Embedding [10.244215079409797]
本稿では,中国語の単言語話者からより標準の英語音声を取得するために,マンダリン・イングリッシュ・TSシステムを構築した。
言語と音韻の動的強度を捉えるための埋め込み強度変調器を特別に設計する。
論文 参考訳(メタデータ) (2022-12-07T03:46:18Z) - Towards Zero-shot Language Modeling [90.80124496312274]
人間の言語学習に誘導的に偏りを持つニューラルモデルを構築した。
類型的に多様な訓練言語のサンプルからこの分布を推測する。
我々は、保留言語に対する遠隔監視として、追加の言語固有の側情報を利用する。
論文 参考訳(メタデータ) (2021-08-06T23:49:18Z) - Phonological Features for 0-shot Multilingual Speech Synthesis [50.591267188664666]
単言語モデルにおいても,トレーニング中に見つからない言語に対して,コードスイッチングが可能であることを示す。
テスト時には、訓練で見たことのない音の近似を含む、新しい言語で、理解不能で、コードスイッチトされた音声を生成する。
論文 参考訳(メタデータ) (2020-08-06T18:25:18Z) - AlloVera: A Multilingual Allophone Database [137.3686036294502]
AlloVeraは、218のアロフォンから14言語のための音素へのマッピングを提供する。
我々は、AlloVeraで構築された「ユニバーサル」アロフォンモデルであるAllosaurusが、音声書き起こしタスクにおいて「ユニバーサル」音声モデルと言語特化モデルより優れていることを示す。
論文 参考訳(メタデータ) (2020-04-17T02:02:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。