論文の概要: The BS-meter: A ChatGPT-Trained Instrument to Detect Sloppy Language-Games
- arxiv url: http://arxiv.org/abs/2411.15129v2
- Date: Tue, 10 Jun 2025 07:11:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 19:51:30.134531
- Title: The BS-meter: A ChatGPT-Trained Instrument to Detect Sloppy Language-Games
- Title(参考訳): BSメーター:スロッピーな言語ゲームを検出するチャットGPT学習機器
- Authors: Alessandro Trevisan, Harry Giddens, Sarah Dillon, Alan F. Blackwell,
- Abstract要約: シュロッピーブルッシャーの統計モデルは,フランクフルト人造ブルッシャーのChatGPTと,自然言語に見られるようなブルッシャーの政治的・職場的機能とを確実に関連付けることができることを示す。
- 参考スコア(独自算出の注目度): 41.94295877935867
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: What can we learn about language from studying how it is used by ChatGPT and other large language model (LLM)-based chatbots? In this paper, we analyse the distinctive character of language generated by ChatGPT, in relation to questions raised by natural language processing pioneer, and student of Wittgenstein, Margaret Masterman. Following frequent complaints that LLM-based chatbots produce "slop," or even "bullshit," in the sense of Frankfurt's popular monograph On Bullshit, we conduct an empirical study to contrast the language of 1,000 scientific publications with typical text generated by ChatGPT. We then explore whether the same language features can be detected in two well-known contexts of social dysfunction: George Orwell's critique of political speech, and David Graeber's characterisation of bullshit jobs. Using simple hypothesis-testing methods, we demonstrate that a statistical model of sloppy bullshit can reliably relate the Frankfurtian artificial bullshit of ChatGPT to the political and workplace functions of bullshit as observed in natural human language.
- Abstract(参考訳): ChatGPTや他の大規模言語モデル(LLM)ベースのチャットボットでどのように使われているかを研究することで、言語について何が学べるだろうか?
本稿では,ChatGPTが生成する言語の特徴を,自然言語処理の先駆者とマーガレット・マスターマン・ウィトゲンシュタインの学生が提起した質問に対して分析する。
LLMベースのチャットボットは、フランクフルトの有名なモノグラフOn Bullshitの意味で、"slop" や "bullshit" も生成する、という苦情を繰り返した上で、我々は、ChatGPTによって生成された典型的なテキストと1000の科学出版物の言語を対比する実証的研究を行った。
次に、同じ言語の特徴が社会的機能不全の2つのよく知られた文脈で検出できるかどうかを探る:ジョージ・オーウェルの政治演説批判と、デイヴィッド・グレーバーのブルジットな仕事の性格化である。
簡単な仮説検証手法を用いて, シュロッピーブルッシャーの統計モデルが, 自然言語で見られるように, フランクフルト人によるChatGPTの人工ブルッシャーとブルッシャーの政治的・職場的機能とを確実に関連付けることを実証した。
関連論文リスト
- ChatGPT for President! Presupposed content in politicians versus GPT-generated texts [0.0]
本研究では,ChatGPT-4の政治談話における言語戦略を再現する能力について検討した。
コーパスに基づく実用分析を用いて、ChatGPTがこれらの説得的戦略をいかにうまく模倣できるかを評価する。
論文 参考訳(メタデータ) (2025-03-03T07:48:04Z) - OffensiveLang: A Community Based Implicit Offensive Language Dataset [5.813922783967869]
ヘイトスピーチや攻撃的な言語は、明示的な形と暗黙的な形の両方に存在する。
OffensiveLangはコミュニティベースの暗黙的な攻撃的な言語データセットである。
本稿では、暗黙の攻撃的言語を効果的に生成するプロンプトベースのアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-04T20:34:58Z) - Counting the Bugs in ChatGPT's Wugs: A Multilingual Investigation into
the Morphological Capabilities of a Large Language Model [23.60677380868016]
大規模言語モデル (LLM) は近年,人間の言語スキルと比較する上で,目覚ましい言語能力に達している。
そこで本研究では,4言語でChatGPTの形態的能力の厳密な分析を行う。
ChatGPTは、特に英語の目的構築システムでは大幅に性能が低下している。
論文 参考訳(メタデータ) (2023-10-23T17:21:03Z) - What has ChatGPT read? The origins of archaeological citations used by a
generative artificial intelligence application [0.0]
本稿は,ChatGPTの訓練段階に含まれると思われる考古学文献を検証した。
ChatGPTは、一見意味のある参照を提供するが、大きなパーセンテージは虚偽であることが証明された。
ChatGPTが提供するすべての参照が本物であることが判明したことも、Wikipediaのページに引用されている。
論文 参考訳(メタデータ) (2023-08-07T05:06:35Z) - Natural Language Decompositions of Implicit Content Enable Better Text
Representations [56.85319224208865]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z) - ChatGPT Beyond English: Towards a Comprehensive Evaluation of Large
Language Models in Multilingual Learning [70.57126720079971]
大規模言語モデル(LLM)は、自然言語処理(NLP)において最も重要なブレークスルーとして登場した。
本稿では,高,中,低,低リソースの37言語を対象として,ChatGPTを7つのタスクで評価する。
従来のモデルと比較すると,様々なNLPタスクや言語に対するChatGPTの性能は低下していた。
論文 参考訳(メタデータ) (2023-04-12T05:08:52Z) - ChatGPT: Beginning of an End of Manual Linguistic Data Annotation? Use
Case of Automatic Genre Identification [0.0]
ChatGPTは自然言語生成タスクにおいて強力な能力を示しており、研究者は自然にその能力がどこで終わるかを探求している。
本稿では,ChatGPTとXLM-RoBERTa言語モデルを比較した。
その結果、ChatGPTは、どちらのモデルでもこれまで見られなかったデータセットに適用した場合、微調整されたモデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-03-07T14:59:33Z) - Language Models as Inductive Reasoners [125.99461874008703]
本稿では,帰納的推論のための新しいパラダイム(タスク)を提案し,自然言語の事実から自然言語規則を誘導する。
タスクのための1.2kルールファクトペアを含むデータセットDEERを作成し,ルールと事実を自然言語で記述する。
我々は、事前訓練された言語モデルが自然言語の事実から自然言語規則をいかに誘導できるかを、初めてかつ包括的な分析を行う。
論文 参考訳(メタデータ) (2022-12-21T11:12:14Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - COLD: A Benchmark for Chinese Offensive Language Detection [54.60909500459201]
COLDatasetは、37kの注釈付き文を持つ中国の攻撃的言語データセットである。
また、人気のある中国語モデルの出力攻撃性を研究するために、textscCOLDetectorを提案する。
我々の資源と分析は、中国のオンラインコミュニティを解毒し、生成言語モデルの安全性を評価することを目的としている。
論文 参考訳(メタデータ) (2022-01-16T11:47:23Z) - The Rediscovery Hypothesis: Language Models Need to Meet Linguistics [8.293055016429863]
現代言語モデルの性能向上に言語知識が必須条件であるかどうかを検討する。
その結果, 言語構造を探索した場合, かなり圧縮されるが, 事前学習目的によく適合する言語モデルは, 良好なスコアを保っていることがわかった。
この結果は再発見仮説を支持し,本論文の第2の貢献である言語モデル目標と言語情報との関連性に関する情報論的枠組みを導出する。
論文 参考訳(メタデータ) (2021-03-02T15:57:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。