論文の概要: Contrasting Linguistic Patterns in Human and LLM-Generated Text
- arxiv url: http://arxiv.org/abs/2308.09067v1
- Date: Thu, 17 Aug 2023 15:54:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 16:04:46.163605
- Title: Contrasting Linguistic Patterns in Human and LLM-Generated Text
- Title(参考訳): ヒトおよびllm生成テキストにおける言語パターンの対比
- Authors: Alberto Mu\~noz-Ortiz and Carlos G\'omez-Rodr\'iguez and David Vilares
- Abstract要約: 我々は、人書きの英語ニューステキストとAI生成テキストを対比した定量的分析を行う。
結果は、人間とAIが生成したテキストの様々な測定可能な相違を明らかにした。
人間の文章は、AIが生成したテキストよりも、より散在した文の長さの分布、依存関係と構成型の明確な使用、より短い構成成分、より攻撃的な感情(嫌悪感、嫌悪感)を示す。
- 参考スコア(独自算出の注目度): 7.466159270333272
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We conduct a quantitative analysis contrasting human-written English news
text with comparable large language model (LLM) output from 4 LLMs from the
LLaMa family. Our analysis spans several measurable linguistic dimensions,
including morphological, syntactic, psychometric and sociolinguistic aspects.
The results reveal various measurable differences between human and
AI-generated texts. Among others, human texts exhibit more scattered sentence
length distributions, a distinct use of dependency and constituent types,
shorter constituents, and more aggressive emotions (fear, disgust) than
LLM-generated texts. LLM outputs use more numbers, symbols and auxiliaries
(suggesting objective language) than human texts, as well as more pronouns. The
sexist bias prevalent in human text is also expressed by LLMs.
- Abstract(参考訳): LLaMa ファミリーの 4 つの LLM から出力される大きな言語モデル (LLM) に匹敵する人文英語のニューステキストに対して定量的解析を行う。
我々の分析は、形態学、統語学、心理学、社会言語学の側面を含む、いくつかの測定可能な言語次元にまたがる。
その結果、人間とAIが生成するテキストの様々な測定可能な違いが明らかになった。
例えば、人間の文章は、LLM生成テキストよりも、より散在した文の長さ分布、依存と構成型の明確な使用、短い構成成分、より攻撃的な感情(嫌悪感、嫌悪感)を示す。
LLMの出力は、人文よりも数字、記号、補助語(目的語を推奨する)が多用され、代名詞も多用される。
ヒトのテキストで広く見られる性差別バイアスもLDMによって表される。
関連論文リスト
- Dialectal Toxicity Detection: Evaluating LLM-as-a-Judge Consistency Across Language Varieties [23.777874316083984]
現代のLSMによる毒性の検出に方言の違いがどう影響するかについては、体系的な研究はほとんど行われていない。
10の言語クラスタと60の変種をカバーする合成変換と人間による翻訳により、多言語データセットを作成する。
次に,多言語,方言,LLM-ヒト間の毒性を評価できる3つのLSMを評価した。
論文 参考訳(メタデータ) (2024-11-17T03:53:24Z) - Large Language Models Reflect the Ideology of their Creators [73.25935570218375]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
異なるLLMや言語にまたがるイデオロギー的姿勢の顕著な多様性を明らかにする。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - LMLPA: Language Model Linguistic Personality Assessment [11.599282127259736]
大規模言語モデル(LLM)は、日常の生活や研究にますます利用されている。
与えられたLLMの性格を測定することは、現在課題である。
言語モデル言語パーソナリティアセスメント(LMLPA)は,LLMの言語的パーソナリティを評価するシステムである。
論文 参考訳(メタデータ) (2024-10-23T07:48:51Z) - Do LLMs write like humans? Variation in grammatical and rhetorical styles [0.7852714805965528]
大規模言語モデル(LLM)の修辞形式について検討する。
ダグラス・ビーバーの語彙的・文法的・修辞的特徴セットを用いて, LLMと人間との系統的差異を同定した。
このことは、高度な能力にもかかわらず、LLMは人間のスタイルに合うのに苦労していることを示している。
論文 参考訳(メタデータ) (2024-10-21T15:35:44Z) - Hate Personified: Investigating the role of LLMs in content moderation [64.26243779985393]
ヘイト検出などの主観的タスクでは,人々が嫌悪感を知覚する場合には,多様なグループを表現できるLarge Language Model(LLM)の能力は不明確である。
追加の文脈をプロンプトに含めることで、LLMの地理的プライミングに対する感受性、ペルソナ属性、数値情報を分析し、様々なグループのニーズがどの程度反映されているかを評価する。
論文 参考訳(メタデータ) (2024-10-03T16:43:17Z) - Language Model Alignment in Multilingual Trolley Problems [138.5684081822807]
Moral Machine 実験に基づいて,MultiTP と呼ばれる100以上の言語でモラルジレンマヴィグネットの言語間コーパスを開発する。
分析では、19の異なるLLMと人間の判断を一致させ、6つのモラル次元をまたいだ嗜好を捉えた。
我々は、AIシステムにおける一様道徳的推論の仮定に挑戦し、言語間のアライメントの顕著なばらつきを発見した。
論文 参考訳(メタデータ) (2024-07-02T14:02:53Z) - White Men Lead, Black Women Help? Benchmarking Language Agency Social Biases in LLMs [58.27353205269664]
社会的偏見は言語機関に現れることがある。
本稿では,言語庁バイアス評価ベンチマークを紹介する。
我々は,最近の3つのLarge Language Model(LLM)生成コンテンツにおいて,言語エージェンシーの社会的バイアスを明らかにした。
論文 参考訳(メタデータ) (2024-04-16T12:27:54Z) - Large Language Models are as persuasive as humans, but how? About the cognitive effort and moral-emotional language of LLM arguments [0.0]
大型言語モデル(LLM)はすでに人間と同じくらい説得力がある。
本稿では, LLMの説得戦略について, 人為的議論と比較し検討する。
論文 参考訳(メタデータ) (2024-04-14T19:01:20Z) - High-Dimension Human Value Representation in Large Language Models [60.33033114185092]
大規模言語モデル(LLM)における人的価値分布の高次元表現であるUniVaRを提案する。
我々は,UniVaRが,異なるLLMに埋め込まれた人間の値と異なる言語源との分布を比較する強力なツールであることを示す。
論文 参考訳(メタデータ) (2024-04-11T16:39:00Z) - Scaling Data Diversity for Fine-Tuning Language Models in Human Alignment [84.32768080422349]
人間の好みの調整は、大きな言語モデルが誤解を招くか有害なコンテンツを生成するのを防ぐ。
本研究では, 微調整後のLLMの最終性能と線形相関を示唆し, 即時多様性の新たな定式化を提案する。
論文 参考訳(メタデータ) (2024-03-17T07:08:55Z) - Queer People are People First: Deconstructing Sexual Identity
Stereotypes in Large Language Models [3.974379576408554]
大規模言語モデル(LLM)は、主に最小処理のWebテキストに基づいて訓練される。
LLMはLGBTQIA+コミュニティのような、疎外されたグループに対して必然的にステレオタイプを永続させることができる。
論文 参考訳(メタデータ) (2023-06-30T19:39:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。