論文の概要: The Impact of Large Language Models in Academia: from Writing to Speaking
- arxiv url: http://arxiv.org/abs/2409.13686v2
- Date: Tue, 22 Oct 2024 17:06:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 05:57:35.298728
- Title: The Impact of Large Language Models in Academia: from Writing to Speaking
- Title(参考訳): 学業における大規模言語モデルの影響--執筆から講演まで
- Authors: Mingmeng Geng, Caixi Chen, Yanru Wu, Dongping Chen, Yao Wan, Pan Zhou,
- Abstract要約: 筆者らは,3万件以上の論文と1,000件以上の機械学習カンファレンスのプレゼンテーションに基づいて,文章や講演の言葉を調査,比較した。
以上の結果から,LLMスタイルの単語である「有意」が抽象語や口頭語ではより頻繁に用いられていることが示唆された。
人社会に対するLLMの暗黙の影響と波及効果に注意を向け、講演への影響が浮上し始めており、将来成長する可能性が高い。
- 参考スコア(独自算出の注目度): 42.1505375956748
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly impacting human society, particularly in textual information. Based on more than 30,000 papers and 1,000 presentations from machine learning conferences, we examined and compared the words used in writing and speaking, representing the first large-scale study of how LLMs influence the two main modes of verbal communication and expression within the same group of people. Our empirical results show that LLM-style words such as "significant" have been used more frequently in abstracts and oral presentations. The impact on speaking is beginning to emerge and is likely to grow in the future, calling attention to the implicit influence and ripple effect of LLMs on human society.
- Abstract(参考訳): 大規模言語モデル(LLM)は、特にテキスト情報において、人間の社会にますます影響を与えている。
筆者らは,3万件以上の論文と1,000件以上の機械学習会議のプレゼンテーションに基づいて,LLMが同じグループ内での2つの主要なコミュニケーションと表現のモードにどのように影響するかについて,文章と発話で使用される単語を検証,比較した。
実験結果から,LLMスタイルの単語である「有意」が,抽象語や口頭語ではより頻繁に用いられていることが明らかとなった。
人社会に対するLLMの暗黙の影響と波及効果に注意を向け、講演への影響が浮上し始めており、将来成長する可能性が高い。
関連論文リスト
- Evaluating Large language models on Understanding Korean indirect Speech acts [0.6757476692230009]
本研究は,現在のLLMが発話の意図を,与えられた会話コンテキストを考慮し理解できるかどうかを評価する。
プロプライエタリなモデルは、オープンソースモデルに比べて比較的高いパフォーマンスを示した。
Claude3-Opusを除くほとんどのLLMは間接的音声行為の理解において著しく低い性能を示した。
論文 参考訳(メタデータ) (2025-02-16T04:59:19Z) - Why Do Speech Language Models Fail to Generate Semantically Coherent Outputs? A Modality Evolving Perspective [23.49276487518479]
テキストから音声へのモダリティを進化的に伝達することで,3つの要因の影響を別々に検討する。
A因子は比較的小さな影響を持ち、B因子は構文的および意味的モデリングに明らかに影響を与え、C因子は特に基本的な語彙的モデリングにおいて最も大きな影響を与えている。
論文 参考訳(メタデータ) (2024-12-22T14:59:19Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Spoken Stereoset: On Evaluating Social Bias Toward Speaker in Speech Large Language Models [50.40276881893513]
本研究では,音声大言語モデル(SLLM)における社会的バイアスの評価を目的としたデータセットであるSpken Stereosetを紹介する。
多様な人口集団の発話に対して異なるモデルがどのように反応するかを調べることで、これらのバイアスを特定することを目指している。
これらの結果から,ほとんどのモデルではバイアスが最小であるが,ステレオタイプや反ステレオタイプ傾向がわずかにみられた。
論文 参考訳(メタデータ) (2024-08-14T16:55:06Z) - Delving into ChatGPT usage in academic writing through excess vocabulary [4.58733012283457]
ChatGPTのような大きな言語モデル(LLM)は、人間レベルのパフォーマンスでテキストを生成し、修正することができる。
我々は2010年から2024年にかけての1400万のPubMed抽象語の語彙変化について検討し、LLMの出現がある種の単語の出現頻度の急激な増加につながったことを示す。
我々は,LLMが,コビッドパンデミックなどの世界大イベントの影響を超越して,科学文献に前例のない影響を与えていることを示す。
論文 参考訳(メタデータ) (2024-06-11T07:16:34Z) - Large Language Models are as persuasive as humans, but how? About the cognitive effort and moral-emotional language of LLM arguments [0.0]
大型言語モデル(LLM)はすでに人間と同じくらい説得力がある。
本稿では, LLMの説得戦略について, 人為的議論と比較し検討する。
論文 参考訳(メタデータ) (2024-04-14T19:01:20Z) - Toward Joint Language Modeling for Speech Units and Text [89.32163954508489]
音声単位とテキストの共用言語モデリングについて検討する。
音声とテキストの混在度を評価するための自動計測手法を提案する。
提案手法を用いて音声単位とテキストを混合することにより,SLUタスクにおける音声のみのベースラインを改良することを示す。
論文 参考訳(メタデータ) (2023-10-12T20:53:39Z) - Investigating the Utility of Surprisal from Large Language Models for
Speech Synthesis Prosody [4.081433571732691]
本稿では,音声の韻律合成を支援する機能として,ある文脈における単語の予測可能性の尺度である単語代名詞の使用について検討する。
様々な大きさの英語テキストと大言語モデル(LLM)を用いて実験を行う。
語源と語長は適度に相関し,関連性はあるものの言語使用の異なる側面を捉えていることが示唆された。
論文 参考訳(メタデータ) (2023-06-16T12:49:44Z) - Towards Language Modelling in the Speech Domain Using Sub-word
Linguistic Units [56.52704348773307]
音節や音素を含む言語単位に基づくLSTMに基づく新しい生成音声LMを提案する。
限られたデータセットでは、現代の生成モデルで要求されるものよりも桁違いに小さいので、我々のモデルはバブリング音声を近似する。
補助的なテキストLM,マルチタスク学習目標,補助的な調音特徴を用いた訓練の効果を示す。
論文 参考訳(メタデータ) (2021-10-31T22:48:30Z) - "Notic My Speech" -- Blending Speech Patterns With Multimedia [65.91370924641862]
音声認識と理解における視点依存と視覚的重要性の両方をモデル化するための視点時間的注意機構を提案する。
提案手法は, ビセム誤差率において, 既存の作業よりも4.99%優れていた。
モデルでは,多視点音声に対する理解と人間の知覚との間に強い相関関係があることが示されている。
論文 参考訳(メタデータ) (2020-06-12T06:51:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。