論文の概要: Computational Approaches to Understanding Large Language Model Impact on Writing and Information Ecosystems
- arxiv url: http://arxiv.org/abs/2506.17467v1
- Date: Fri, 20 Jun 2025 20:15:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.429084
- Title: Computational Approaches to Understanding Large Language Model Impact on Writing and Information Ecosystems
- Title(参考訳): 大規模言語モデルが書込みおよび情報生態系に与える影響を理解するための計算的アプローチ
- Authors: Weixin Liang,
- Abstract要約: 大規模言語モデル(LLM)は、私たちがどのように書き、コミュニケーションし、作成するかを変える大きな可能性を示しています。
この論文は、個人や機関がこの新興技術にどのように適応し、関与しているかを調べます。
- 参考スコア(独自算出の注目度): 10.503784446147122
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have shown significant potential to change how we write, communicate, and create, leading to rapid adoption across society. This dissertation examines how individuals and institutions are adapting to and engaging with this emerging technology through three research directions. First, I demonstrate how the institutional adoption of AI detectors introduces systematic biases, particularly disadvantaging writers of non-dominant language varieties, highlighting critical equity concerns in AI governance. Second, I present novel population-level algorithmic approaches that measure the increasing adoption of LLMs across writing domains, revealing consistent patterns of AI-assisted content in academic peer reviews, scientific publications, consumer complaints, corporate communications, job postings, and international organization press releases. Finally, I investigate LLMs' capability to provide feedback on research manuscripts through a large-scale empirical analysis, offering insights into their potential to support researchers who face barriers in accessing timely manuscript feedback, particularly early-career researchers and those from under-resourced settings.
- Abstract(参考訳): 大規模言語モデル(LLM)は、私たちがどのように書くか、コミュニケーションし、作成するかを変える大きな可能性を示しており、社会全体で急速に普及しています。
この論文は、個人や機関が3つの研究方向を通じて、この新興技術にどのように適応し、関与しているかを調べるものである。
まず、AI検出器の制度的採用が、体系的なバイアス、特に非支配的な言語品種のライターに不都合をもたらすことを実証し、AIガバナンスにおける重要な公平な懸念を強調します。
第2に、学術的査読、学術出版物、消費者苦情、企業コミュニケーション、求人情報、国際機関のプレスリリースにおいて、AI支援コンテンツの一貫したパターンを明らかにする。
最後に、大規模な実証分析を通じて研究用原稿にフィードバックを提供するLLMの能力について検討し、タイムリーな原稿フィードバック、特に早期介護者研究者や未調達環境の研究者の障壁に直面している研究者を支援する可能性について考察する。
関連論文リスト
- The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - Survey on Vision-Language-Action Models [0.2636873872510828]
この研究は、オリジナルの研究を表現していないが、AIが文学レビューの自動化にどのように役立つかを強調している。
今後の研究は、AI支援文学レビューのための構造化されたフレームワークの開発に焦点を当てる。
論文 参考訳(メタデータ) (2025-02-07T11:56:46Z) - ResearchAgent: Iterative Research Idea Generation over Scientific Literature with Large Language Models [56.08917291606421]
ResearchAgentは、新しい作品のアイデアと運用のためのAIベースのシステムである。
ResearchAgentは、新しい問題を自動で定義し、手法と設計実験を提案し、繰り返し修正する。
我々は、複数の分野にわたる科学論文に関するResearchAgentを実験的に検証した。
論文 参考訳(メタデータ) (2024-04-11T13:36:29Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。