論文の概要: ChatGPT-generated texts show authorship traits that identify them as non-human
- arxiv url: http://arxiv.org/abs/2508.16385v1
- Date: Fri, 22 Aug 2025 13:38:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:36.397144
- Title: ChatGPT-generated texts show authorship traits that identify them as non-human
- Title(参考訳): ChatGPT生成テキストは、それらが非人間であることを識別する著者特性を示す
- Authors: Vittoria Dentella, Weihang Huang, Silvia Angela Mansi, Jack Grieve, Evelina Leivada,
- Abstract要約: この研究は、言語モデルが特定の指紋にリンクできるかどうかを調べる。
このモデルでは、ウィキペディアのエントリーと大学のエッセイのどちらを生成するかによって、そのスタイルをうまく適応させることができることが分かりました。
このモデルでは動詞よりも名詞が好まれており,人間とは異なる言語的バックボーンが示されることが示唆された。
- 参考スコア(独自算出の注目度): 0.6741942263052466
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models can emulate different writing styles, ranging from composing poetry that appears indistinguishable from that of famous poets to using slang that can convince people that they are chatting with a human online. While differences in style may not always be visible to the untrained eye, we can generally distinguish the writing of different people, like a linguistic fingerprint. This work examines whether a language model can also be linked to a specific fingerprint. Through stylometric and multidimensional register analyses, we compare human-authored and model-authored texts from different registers. We find that the model can successfully adapt its style depending on whether it is prompted to produce a Wikipedia entry vs. a college essay, but not in a way that makes it indistinguishable from humans. Concretely, the model shows more limited variation when producing outputs in different registers. Our results suggest that the model prefers nouns to verbs, thus showing a distinct linguistic backbone from humans, who tend to anchor language in the highly grammaticalized dimensions of tense, aspect, and mood. It is possible that the more complex domains of grammar reflect a mode of thought unique to humans, thus acting as a litmus test for Artificial Intelligence.
- Abstract(参考訳): 大きな言語モデルは、有名な詩人と区別がつかない詩を作曲することから、人々がオンラインで人間とチャットしていることを人々に納得させるスラングの使用まで、さまざまなスタイルをエミュレートすることができる。
スタイルの違いは、訓練されていない目では必ずしも見えないかもしれないが、言語的な指紋のように、一般的に異なる人物の筆跡を区別することができる。
この研究は、言語モデルが特定の指紋にリンクできるかどうかを調べる。
構造的および多次元のレジスタ解析を通じて、異なるレジスタの人文とモデルによるテキストを比較した。
このモデルは、ウィキペディアのエントリーと大学のエッセイを制作するかどうかによって、そのスタイルをうまく適応させることができるが、人間と区別できないような方法では存在しない。
具体的には、異なるレジスタで出力を生成する際に、より限定的な変動を示す。
このモデルでは動詞よりも名詞が好まれており、テンション、アスペクト、ムードの高度に文法化された次元に言語を定着させる傾向にある人間とは異なる言語的バックボーンが示されることが示唆された。
文法のより複雑な領域は、人間特有の思考様式を反映し、人工知能のリトマステストとして機能する可能性がある。
関連論文リスト
- Do language models accommodate their users? A study of linguistic convergence [15.958711524171362]
モデルは会話のスタイルに強く収束し、しばしば人間のベースラインに対してかなり過度に適合する。
モデル設定間の収束の連続的な変化を観察し、事前訓練されたモデルよりも少ない精度で収束する命令調整および大規模モデルについて考察する。
論文 参考訳(メタデータ) (2025-08-05T09:55:40Z) - A Psycholinguistic Evaluation of Language Models' Sensitivity to Argument Roles [0.06554326244334868]
我々は,人間の議論的役割処理に関する心理言語学的研究を再現することにより,大規模言語モデルの議論的役割に対する感受性を評価する。
言語モデルでは,動詞とその先行する引数の関係から,可否が決定されるような,可否的かつ不可解な文脈で現れる動詞を識別することができる。
このことは、言語モデルが動詞の可読性を検出する能力は、人間のリアルタイム文処理の基盤となるメカニズムから生じるものではないことを示唆している。
論文 参考訳(メタデータ) (2024-10-21T16:05:58Z) - Detecting Mode Collapse in Language Models via Narration [0.0]
3つのOpenAI言語モデルからサンプリングした4,374のストーリーについて検討した。
我々は、GPT-3の連続バージョンが「モード崩壊」の度合いの上昇に悩まされていることを示す。
社会学シミュレーションに言語モデルを用いたい研究者にとって,本手法と結果が重要である。
論文 参考訳(メタデータ) (2024-02-06T23:52:58Z) - Multilingual Text-to-Image Generation Magnifies Gender Stereotypes and Prompt Engineering May Not Help You [64.74707085021858]
多言語モデルは、モノリンガルモデルと同様に、有意な性別バイアスに悩まされていることを示す。
多言語モデルにおけるジェンダーバイアスの研究を促進するための新しいベンチマークMAGBIGを提案する。
以上の結果から,モデルが強い性バイアスを示すだけでなく,言語によって異なる行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2024-01-29T12:02:28Z) - AI, write an essay for me: A large-scale comparison of human-written
versus ChatGPT-generated essays [66.36541161082856]
ChatGPTや同様の生成AIモデルは、何億人ものユーザーを惹きつけている。
本研究は,ChatGPTが生成した議論的学生エッセイと比較した。
論文 参考訳(メタデータ) (2023-04-24T12:58:28Z) - Testing the Ability of Language Models to Interpret Figurative Language [69.59943454934799]
比喩的・比喩的な言語は言論において一般的である。
現代の言語モデルが非リテラルなフレーズをどの程度解釈できるかについては、未解決の疑問が残る。
ウィノグラードスタイルの非文字言語理解タスクであるFig-QAを紹介する。
論文 参考訳(メタデータ) (2022-04-26T23:42:22Z) - Estimating the Personality of White-Box Language Models [0.589889361990138]
大規模なテキストコーパスで訓練された大規模言語モデルは、至る所で広範囲のアプリケーションで使用されている。
既存の研究は、これらのモデルが人間の偏見を捉え、捉えていることを示している。
これらのバイアス、特に害を引き起こす可能性のあるバイアスの多くは、十分に調査されている。
しかし、これらのモデルによって受け継がれた人間の性格特性を推測し、変化させる研究は、ほとんど、あるいは存在しない。
論文 参考訳(メタデータ) (2022-04-25T23:53:53Z) - Uncovering Constraint-Based Behavior in Neural Models via Targeted
Fine-Tuning [9.391375268580806]
本研究は,言語知識が不明な言語内での競合する言語プロセスを示す。
人間の行動は言語間で類似していることがわかったが、モデル行動の言語間差異は見いだされている。
以上の結果から,言語における言語的制約と相対的ランクの双方をモデルが学習する必要があることが示唆された。
論文 参考訳(メタデータ) (2021-06-02T14:52:11Z) - Read Like Humans: Autonomous, Bidirectional and Iterative Language
Modeling for Scene Text Recognition [80.446770909975]
言語知識はシーンのテキスト認識に非常に有益である。
エンドツーエンドのディープネットワークで言語規則を効果的にモデル化する方法はまだ研究の課題です。
シーンテキスト認識のための自律的双方向反復型ABINetを提案する。
論文 参考訳(メタデータ) (2021-03-11T06:47:45Z) - Mechanisms for Handling Nested Dependencies in Neural-Network Language
Models and Humans [75.15855405318855]
我々は,「深層学習」手法で訓練された現代人工ニューラルネットワークが,人間の文処理の中心的な側面を模倣するかどうかを検討した。
ネットワークは、大きなコーパスで次の単語を予測するためにのみ訓練されたが、分析の結果、局所的および長距離の構文合意をうまく処理する特別なユニットが出現した。
我々は,複数の名詞の単数/複数状態における体系的な変化を伴う文中の数一致の違反を人間が検出する行動実験において,モデルの予測を検証した。
論文 参考訳(メタデータ) (2020-06-19T12:00:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。