論文の概要: Measuring Bullshit in the Language Games played by ChatGPT
- arxiv url: http://arxiv.org/abs/2411.15129v1
- Date: Fri, 22 Nov 2024 18:55:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-25 15:03:57.570455
- Title: Measuring Bullshit in the Language Games played by ChatGPT
- Title(参考訳): ChatGPTによる言語ゲームにおけるブルシットの測定
- Authors: Alessandro Trevisan, Harry Giddens, Sarah Dillon, Alan F. Blackwell,
- Abstract要約: 生成的大言語モデル(LLM)は真理値と直接対応しないテキストを生成する。
LLMはフランクフルトの有名なモノグラフOn Bullshitに記述されている言語に類似している。
ブルジットの言語統計モデルは、ブルジットの政治・職場機能とフランクフルト人の人工ブルジットを確実に関連付けることができることを示す。
- 参考スコア(独自算出の注目度): 41.94295877935867
- License:
- Abstract: Generative large language models (LLMs), which create text without direct correspondence to truth value, are widely understood to resemble the uses of language described in Frankfurt's popular monograph On Bullshit. In this paper, we offer a rigorous investigation of this topic, identifying how the phenomenon has arisen, and how it might be analysed. In this paper, we elaborate on this argument to propose that LLM-based chatbots play the 'language game of bullshit'. We use statistical text analysis to investigate the features of this Wittgensteinian language game, based on a dataset constructed to contrast the language of 1,000 scientific publications with typical pseudo-scientific text generated by ChatGPT. We then explore whether the same language features can be detected in two well-known contexts of social dysfunction: George Orwell's critique of politics and language, and David Graeber's characterisation of bullshit jobs. Using simple hypothesis-testing methods, we demonstrate that a statistical model of the language of bullshit can reliably relate the Frankfurtian artificial bullshit of ChatGPT to the political and workplace functions of bullshit as observed in natural human language.
- Abstract(参考訳): 生成的大言語モデル(LLM)は、真理値と直接対応しないテキストを生成するが、フランクフルトの有名なモノグラフOn Bullshitに記述されている言語の使用とよく似ていると広く理解されている。
本稿では,この現象がどのように発生したのか,どのように分析されるのかを,厳密な調査として紹介する。
本稿では,LLMをベースとしたチャットボットが「くだらない言語ゲーム」を演じることを提案するために,この議論を詳述する。
我々は、このウィトゲンシュタイン言語ゲームの特徴を調べるために統計テキスト分析を用い、ChatGPTによって生成された典型的な擬似科学テキストと1000の科学出版物の言語を対比するデータセットを構築した。
次に、同じ言語特徴が社会的機能不全の2つのよく知られた文脈で検出できるかどうかを探る:ジョージ・オーウェルの政治と言語批判、デイヴィッド・グレーバーのブルジットな仕事の性格化。
簡単な仮説検証手法を用いて, ブルッシャーの言語統計モデルが, フランクフルト人造ブルッシャーのChatGPTと, 自然言語に見られるブルッシャーの政治的・職場的機能とを確実に関連付けることを実証した。
関連論文リスト
- OffensiveLang: A Community Based Implicit Offensive Language Dataset [5.813922783967869]
ヘイトスピーチや攻撃的な言語は、明示的な形と暗黙的な形の両方に存在する。
OffensiveLangはコミュニティベースの暗黙的な攻撃的な言語データセットである。
本稿では、暗黙の攻撃的言語を効果的に生成するプロンプトベースのアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-04T20:34:58Z) - Counting the Bugs in ChatGPT's Wugs: A Multilingual Investigation into
the Morphological Capabilities of a Large Language Model [23.60677380868016]
大規模言語モデル (LLM) は近年,人間の言語スキルと比較する上で,目覚ましい言語能力に達している。
そこで本研究では,4言語でChatGPTの形態的能力の厳密な分析を行う。
ChatGPTは、特に英語の目的構築システムでは大幅に性能が低下している。
論文 参考訳(メタデータ) (2023-10-23T17:21:03Z) - What has ChatGPT read? The origins of archaeological citations used by a
generative artificial intelligence application [0.0]
本稿は,ChatGPTの訓練段階に含まれると思われる考古学文献を検証した。
ChatGPTは、一見意味のある参照を提供するが、大きなパーセンテージは虚偽であることが証明された。
ChatGPTが提供するすべての参照が本物であることが判明したことも、Wikipediaのページに引用されている。
論文 参考訳(メタデータ) (2023-08-07T05:06:35Z) - Natural Language Decompositions of Implicit Content Enable Better Text
Representations [56.85319224208865]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z) - ChatGPT Beyond English: Towards a Comprehensive Evaluation of Large
Language Models in Multilingual Learning [70.57126720079971]
大規模言語モデル(LLM)は、自然言語処理(NLP)において最も重要なブレークスルーとして登場した。
本稿では,高,中,低,低リソースの37言語を対象として,ChatGPTを7つのタスクで評価する。
従来のモデルと比較すると,様々なNLPタスクや言語に対するChatGPTの性能は低下していた。
論文 参考訳(メタデータ) (2023-04-12T05:08:52Z) - ChatGPT: Beginning of an End of Manual Linguistic Data Annotation? Use
Case of Automatic Genre Identification [0.0]
ChatGPTは自然言語生成タスクにおいて強力な能力を示しており、研究者は自然にその能力がどこで終わるかを探求している。
本稿では,ChatGPTとXLM-RoBERTa言語モデルを比較した。
その結果、ChatGPTは、どちらのモデルでもこれまで見られなかったデータセットに適用した場合、微調整されたモデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-03-07T14:59:33Z) - Language Models as Inductive Reasoners [125.99461874008703]
本稿では,帰納的推論のための新しいパラダイム(タスク)を提案し,自然言語の事実から自然言語規則を誘導する。
タスクのための1.2kルールファクトペアを含むデータセットDEERを作成し,ルールと事実を自然言語で記述する。
我々は、事前訓練された言語モデルが自然言語の事実から自然言語規則をいかに誘導できるかを、初めてかつ包括的な分析を行う。
論文 参考訳(メタデータ) (2022-12-21T11:12:14Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - COLD: A Benchmark for Chinese Offensive Language Detection [54.60909500459201]
COLDatasetは、37kの注釈付き文を持つ中国の攻撃的言語データセットである。
また、人気のある中国語モデルの出力攻撃性を研究するために、textscCOLDetectorを提案する。
我々の資源と分析は、中国のオンラインコミュニティを解毒し、生成言語モデルの安全性を評価することを目的としている。
論文 参考訳(メタデータ) (2022-01-16T11:47:23Z) - The Rediscovery Hypothesis: Language Models Need to Meet Linguistics [8.293055016429863]
現代言語モデルの性能向上に言語知識が必須条件であるかどうかを検討する。
その結果, 言語構造を探索した場合, かなり圧縮されるが, 事前学習目的によく適合する言語モデルは, 良好なスコアを保っていることがわかった。
この結果は再発見仮説を支持し,本論文の第2の貢献である言語モデル目標と言語情報との関連性に関する情報論的枠組みを導出する。
論文 参考訳(メタデータ) (2021-03-02T15:57:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。