論文の概要: "You Cannot Sound Like GPT": Signs of language discrimination and resistance in computer science publishing
- arxiv url: http://arxiv.org/abs/2505.08127v1
- Date: Mon, 12 May 2025 23:58:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.368408
- Title: "You Cannot Sound Like GPT": Signs of language discrimination and resistance in computer science publishing
- Title(参考訳): You Cannot Sound Like GPT』:コンピュータサイエンス出版における言語差別と抵抗のサイン
- Authors: Haley Lepp, Daniel Scott Smith,
- Abstract要約: 我々は、ピアレビュアーが明確さをいかに批判するかを検討する。
我々は、英語があまり話されていない国の機関に関係のある著者に対して、顕著な偏見を見出している。
2022年後半のChatGPT導入以降、このバイアスの表現が変化したのはわずかです。
- 参考スコア(独自算出の注目度): 1.4579344926652844
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: LLMs have been celebrated for their potential to help multilingual scientists publish their research. Rather than interpret LLMs as a solution, we hypothesize their adoption can be an indicator of existing linguistic exclusion in scientific writing. Using the case study of ICLR, an influential, international computer science conference, we examine how peer reviewers critique writing clarity. Analyzing almost 80,000 peer reviews, we find significant bias against authors associated with institutions in countries where English is less widely spoken. We see only a muted shift in the expression of this bias after the introduction of ChatGPT in late 2022. To investigate this unexpectedly minor change, we conduct interviews with 14 conference participants from across five continents. Peer reviewers describe associating certain features of writing with people of certain language backgrounds, and such groups in turn with the quality of scientific work. While ChatGPT masks some signs of language background, reviewers explain that they now use ChatGPT "style" and non-linguistic features as indicators of author demographics. Authors, aware of this development, described the ongoing need to remove features which could expose their "non-native" status to reviewers. Our findings offer insight into the role of ChatGPT in the reproduction of scholarly language ideologies which conflate producers of "good English" with producers of "good science."
- Abstract(参考訳): LLMは、多言語科学者が研究を公表する可能性について祝われている。
LLMを解法として解釈するよりは、それらの採用が科学的著作における既存の言語的排除の指標になり得ると仮定する。
影響力のある国際コンピュータサイエンス会議である ICLR のケーススタディを用いて、ピアレビュアーが明確さをいかに批判するかを検討する。
約8万のピアレビューを分析して、英語があまり話されていない国の機関に関連する著者に対して、かなりの偏見を見出している。
2022年後半のChatGPT導入以降、このバイアスの表現が変化したのはわずかです。
この予期せぬ小さな変化を調査するため、私たちは5大陸の14のカンファレンス参加者とインタビューを行いました。
ピアレビュアーは、特定の言語バックグラウンドを持つ人々と文章の特定の特徴を関連付け、科学的な作業の質と引き換えにそのようなグループについて記述する。
ChatGPTは言語の背景のいくつかの兆候を隠蔽しているが、レビュアーはChatGPTの「スタイル」と非言語的特徴を著者人口の指標として使用していると説明している。
この開発を認識した著者は、レビュアーに“非ネイティブ”なステータスを公開する機能を削除する必要性について説明した。
本研究は,ChatGPTが「良質な英語」生産者と「良質な科学」生産者とを融合させる学術言語イデオロギーの再生に果たす役割について考察した。
関連論文リスト
- ChatGPT as Linguistic Equalizer? Quantifying LLM-Driven Lexical Shifts in Academic Writing [2.0117661599862164]
本研究では,ChatGPT が OpenAlex (2020-2024) から280万項目にわたる語彙的複雑性変化を解析し,障壁を緩和し,株式を育むかを検討する。
記事レベルの制御やオーサリングパターン,会場規範を制御した後でも,ChatGPTはNNESによる抽象表現の語彙的複雑さを著しく向上させることを示した。
これらの知見は、ChatGPTが言語格差を減らし、グローバルなアカデミックにおけるエクイティを促進するという因果的証拠である。
論文 参考訳(メタデータ) (2025-04-10T14:11:24Z) - Mind the Gap! Choice Independence in Using Multilingual LLMs for Persuasive Co-Writing Tasks in Different Languages [51.96666324242191]
チャリティー広告作成タスクにおける新規筆記アシスタントのユーザ利用が、第2言語におけるAIの性能に影響を及ぼすかどうかを分析する。
我々は、これらのパターンが、生成したチャリティー広告の説得力に変換される程度を定量化する。
論文 参考訳(メタデータ) (2025-02-13T17:49:30Z) - Quite Good, but Not Enough: Nationality Bias in Large Language Models -- A Case Study of ChatGPT [4.998396762666333]
本研究では,テキスト生成のための大規模言語モデルであるChatGPT(GPT-3.5)の国籍バイアスについて検討する。
この研究は、195カ国、4つの温度設定、3つの異なるプロンプトタイプをカバーし、中国語と英語の国籍記述に関する4,680の談話を生み出している。
論文 参考訳(メタデータ) (2024-05-11T12:11:52Z) - Holmes: A Benchmark to Assess the Linguistic Competence of Language Models [59.627729608055006]
言語モデル(LM)の言語能力を評価するための新しいベンチマークであるHolmesを紹介する。
我々は、計算に基づく探索を用いて、異なる言語現象に関するLMの内部表現を調べる。
その結果,近年,他の認知能力からLMの言語能力を引き離す声が上がっている。
論文 参考訳(メタデータ) (2024-04-29T17:58:36Z) - Emergent AI-Assisted Discourse: Case Study of a Second Language Writer
Authoring with ChatGPT [5.8131604120288385]
本研究では,特に言語学習者を対象に,ChatGPTが学術的執筆を促進する上で果たす役割について検討する。
ケーススタディアプローチを用いて,ChatGPTを学術的執筆プロセスを通じて統合した博士課程生Kailingの経験を考察した。
論文 参考訳(メタデータ) (2023-10-17T00:22:10Z) - Simple Linguistic Inferences of Large Language Models (LLMs): Blind Spots and Blinds [59.71218039095155]
我々は,ほとんどの人間が自明に感じる単純な推論タスクにおいて,言語理解能力を評価する。
我々は, (i) 文法的に特定された含意, (ii) 不確実性のある明らかな副詞を持つ前提, (iii) 単調性含意を目標とする。
モデルはこれらの評価セットに対して中程度から低い性能を示す。
論文 参考訳(メタデータ) (2023-05-24T06:41:09Z) - Assessing the potential of LLM-assisted annotation for corpus-based pragmatics and discourse analysis: The case of apology [9.941695905504282]
本研究では,大規模言語モデル (LLM) を用いてプラグマ・ディスカッシブ・コーパスのアノテーションを自動生成する可能性について検討する。
GPT-4はGPT-3.5より優れており,精度は人間のコーダに近づいた。
論文 参考訳(メタデータ) (2023-05-15T04:10:13Z) - ChatGPT Beyond English: Towards a Comprehensive Evaluation of Large
Language Models in Multilingual Learning [70.57126720079971]
大規模言語モデル(LLM)は、自然言語処理(NLP)において最も重要なブレークスルーとして登場した。
本稿では,高,中,低,低リソースの37言語を対象として,ChatGPTを7つのタスクで評価する。
従来のモデルと比較すると,様々なNLPタスクや言語に対するChatGPTの性能は低下していた。
論文 参考訳(メタデータ) (2023-04-12T05:08:52Z) - Document-Level Machine Translation with Large Language Models [91.03359121149595]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクに対して、一貫性、凝集性、関連性、流動性のある回答を生成することができる。
本稿では,LLMの談話モデルにおける能力について詳細に評価する。
論文 参考訳(メタデータ) (2023-04-05T03:49:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。