論文の概要: Empirical evidence of Large Language Model's influence on human spoken communication
- arxiv url: http://arxiv.org/abs/2409.01754v2
- Date: Mon, 30 Jun 2025 14:43:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.377635
- Title: Empirical evidence of Large Language Model's influence on human spoken communication
- Title(参考訳): 大規模言語モデルが人間の音声コミュニケーションに与える影響の実証的証拠
- Authors: Hiromu Yakura, Ezequiel Lopez-Lopez, Levin Brinkmann, Ignacio Serna, Prateek Gupta, Ivan Soraperra, Iyad Rahwan,
- Abstract要約: 文化パターンが人間の言語に伝達し、究極的には人間の文化を形成するかを研究する。
360,445のYouTube学術講演と71,591の会話ポッドキャストエピソードから、740,249時間の人間談話に因果推論手法を適用した。
本研究は,ChatGPT が優先的に生成する単語,例えば delve , comprehend , boast , swift , meticulous などの測定可能かつ急激な増加を検知する。
これは、文化的な特性が人間と機械の間で双方向に循環する、閉ざされた文化的フィードバックループの始まりである。
- 参考スコア(独自算出の注目度): 23.893223314507477
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: From the invention of writing and the printing press, to television and social media, human history is punctuated by major innovations in communication technology, which fundamentally altered how ideas spread and reshaped our culture. Recent chatbots powered by generative artificial intelligence constitute a novel medium that encodes cultural patterns in their neural representations and disseminates them in conversations with hundreds of millions of people. Understanding whether these patterns transmit into human language, and ultimately shape human culture, is a fundamental question. While fully quantifying the causal impact of a chatbot like ChatGPT on human culture is very challenging, lexicographic shift in human spoken communication may offer an early indicator of such broad phenomenon. Here, we apply econometric causal inference techniques to 740,249 hours of human discourse from 360,445 YouTube academic talks and 771,591 conversational podcast episodes across multiple disciplines. We detect a measurable and abrupt increase in the use of words preferentially generated by ChatGPT, such as delve, comprehend, boast, swift, and meticulous, after its release. These findings suggest a scenario where machines, originally trained on human data and subsequently exhibiting their own cultural traits, can, in turn, measurably reshape human culture. This marks the beginning of a closed cultural feedback loop in which cultural traits circulate bidirectionally between humans and machines. Our results motivate further research into the evolution of human-machine culture, and raise concerns over the erosion of linguistic and cultural diversity, and the risks of scalable manipulation.
- Abstract(参考訳): 書物や印刷機の発明からテレビやソーシャルメディアに至るまで、人類の歴史はコミュニケーション技術の革新によって揺らぎ、アイデアが私たちの文化をどう広め、形作り変えていくのかを根本的に変えた。
生成人工知能を利用した最近のチャットボットは、ニューラル表現の文化的パターンを符号化し、数億人の人との会話でそれらを広める新しい媒体を構成する。
これらのパターンが人間の言語に伝達され、最終的には人間の文化を形成するかどうかを理解することは、根本的な問題である。
ChatGPTのようなチャットボットが人間の文化に与える影響を、完全に定量化することは非常に難しいが、人間の音声コミュニケーションにおける語彙変化は、そのような広範な現象の早期の指標となるかもしれない。
そこで本研究では,360,445YouTubeアカデミックトークと771,591話の会話ポッドキャストエピソードから,約740,249時間の人間談話に,econometric causal inference手法を適用した。
本報告では,ChatGPT が生成する単語,例えば delve や comprehend , boast , swift , meticulous などの単語の使用が,リリース後に急激に増加することを検知する。
これらの知見は、もともと人間のデータに基づいて訓練され、その後に独自の文化的特性を示す機械が、人間の文化を計測可能な形で作り直すことができるというシナリオを示唆している。
これは、文化的な特性が人間と機械の間で双方向に循環する、閉ざされた文化的フィードバックループの始まりである。
本研究は,人間の機械文化の進化に関するさらなる研究を動機とし,言語的・文化的多様性の侵食や,スケーラブルな操作のリスクへの懸念を提起するものである。
関連論文リスト
- Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
誤分類は、偽の盗作行為の告発や、オンラインコンテンツにおけるAIの普及に関する誤解を招く可能性がある。
我々は、AI-Polished-Text Evaluationデータセットを用いて、最先端の11のAIテキスト検出を体系的に評価した。
我々の発見によると、検出器は、最小限に磨き上げられたテキストをAI生成と誤分類し、AIの関与度を区別し、古いモデルと小さなモデルに偏見を示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - Can AI mimic the human ability to define neologisms? [0.0]
この研究は、ヒトの参加者がネオロジズムの最も適切な定義を選定するオンライン実験を採用した。
その結果、ブレンドと誘導体に対する人間とAIの反応は公正に一致したが、化合物については一致しなかった。
これらの発見は、人間の言語の複雑さと、AIが相変わらずそのニュアンスを捉えている課題を浮き彫りにする。
論文 参考訳(メタデータ) (2025-02-18T09:46:38Z) - Generative AI, Pragmatics, and Authenticity in Second Language Learning [0.0]
生成的AI(Artificial Intelligence)を言語学習と教育に統合する上で、明らかなメリットがある。
しかし、AIシステムが人間の言語に耐える方法のため、人間と同じ社会的認識を持つ言語を使えるような、生きた経験が欠けている。
言語や文化のバイアスは、そのトレーニングデータに基づいて構築されており、主に英語であり、主に西洋の情報源から来ている。
論文 参考訳(メタデータ) (2024-10-18T11:58:03Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Self-Directed Turing Test for Large Language Models [56.64615470513102]
チューリングテストは、自然言語の会話においてAIが人間のような振る舞いを示すことができるかどうかを調べる。
従来のチューリングテストでは、各参加者が1回に1つのメッセージだけを送信する厳格な対話形式を採用している。
本稿では,バーストダイアログ形式を用いた自己指示チューリングテストを提案する。
論文 参考訳(メタデータ) (2024-08-19T09:57:28Z) - Language Model Alignment in Multilingual Trolley Problems [138.5684081822807]
Moral Machine 実験に基づいて,MultiTP と呼ばれる100以上の言語でモラルジレンマヴィグネットの言語間コーパスを開発する。
分析では、19の異なるLLMと人間の判断を一致させ、6つのモラル次元をまたいだ嗜好を捉えた。
我々は、AIシステムにおける一様道徳的推論の仮定に挑戦し、言語間のアライメントの顕著なばらつきを発見した。
論文 参考訳(メタデータ) (2024-07-02T14:02:53Z) - Distributed agency in second language learning and teaching through generative AI [0.0]
ChatGPTは、テキストまたは音声形式のチャットを通じて非公式な第二言語プラクティスを提供することができる。
インストラクタはAIを使って、さまざまなメディアで学習と評価材料を構築することができる。
論文 参考訳(メタデータ) (2024-03-29T14:55:40Z) - Generation Z's Ability to Discriminate Between AI-generated and
Human-Authored Text on Discord [0.32885740436059047]
DiscordはAI統合を可能にし、主にAI生成コンテンツに"ジェネレーションZ"ユーザベースをさらけ出す。
我々は,AI生成テキストと人間によるテキストの識別能力を評価するため,世代Zの高齢者を対象に調査を行った。
ジェネレーションZの個人は、AIと人間によるテキストを区別できない。
論文 参考訳(メタデータ) (2023-12-31T11:52:15Z) - AI, write an essay for me: A large-scale comparison of human-written
versus ChatGPT-generated essays [66.36541161082856]
ChatGPTや同様の生成AIモデルは、何億人ものユーザーを惹きつけている。
本研究は,ChatGPTが生成した議論的学生エッセイと比較した。
論文 参考訳(メタデータ) (2023-04-24T12:58:28Z) - What Artificial Neural Networks Can Tell Us About Human Language
Acquisition [47.761188531404066]
自然言語処理のための機械学習の急速な進歩は、人間がどのように言語を学ぶかについての議論を変革する可能性がある。
計算モデルによる学習可能性の関連性を高めるためには,人間に対して大きな優位性を持たず,モデル学習者を訓練する必要がある。
論文 参考訳(メタデータ) (2022-08-17T00:12:37Z) - Human Heuristics for AI-Generated Language Are Flawed [8.465228064780744]
我々は,最も個人的かつ連続的な言語である動詞の自己表現が,AIによって生成されたかを検討した。
我々は,これらの単語がAI生成言語の人間の判断を予測可能で操作可能であることを実験的に実証した。
我々は、AIアクセントのようなソリューションについて議論し、AIによって生成された言語の誤認の可能性を減らす。
論文 参考訳(メタデータ) (2022-06-15T03:18:56Z) - Few-shot Language Coordination by Modeling Theory of Mind [95.54446989205117]
我々は、数ショット$textit language coordinate$のタスクについて研究する。
リードエージェントは、言語能力の異なるエージェントの$textitpopulation$と調整する必要があります。
これは、人間のコミュニケーションの重要な構成要素であるパートナーの信念をモデル化する能力を必要とする。
論文 参考訳(メタデータ) (2021-07-12T19:26:11Z) - Introducing the Talk Markup Language (TalkML):Adding a little social
intelligence to industrial speech interfaces [0.0]
自然言語の理解は、AI研究の最も残念な失敗の1つだ。
本稿では、他の分野からアイデアを取り入れて実装した方法について述べる。
論文 参考訳(メタデータ) (2021-05-24T14:25:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。