論文の概要: Computational Approaches to Understanding Large Language Model Impact on Writing and Information Ecosystems
- arxiv url: http://arxiv.org/abs/2506.17467v1
- Date: Fri, 20 Jun 2025 20:15:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.429084
- Title: Computational Approaches to Understanding Large Language Model Impact on Writing and Information Ecosystems
- Title(参考訳): 大規模言語モデルが書込みおよび情報生態系に与える影響を理解するための計算的アプローチ
- Authors: Weixin Liang,
- Abstract要約: 大規模言語モデル(LLM)は、私たちがどのように書き、コミュニケーションし、作成するかを変える大きな可能性を示しています。
この論文は、個人や機関がこの新興技術にどのように適応し、関与しているかを調べます。
- 参考スコア(独自算出の注目度): 10.503784446147122
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have shown significant potential to change how we write, communicate, and create, leading to rapid adoption across society. This dissertation examines how individuals and institutions are adapting to and engaging with this emerging technology through three research directions. First, I demonstrate how the institutional adoption of AI detectors introduces systematic biases, particularly disadvantaging writers of non-dominant language varieties, highlighting critical equity concerns in AI governance. Second, I present novel population-level algorithmic approaches that measure the increasing adoption of LLMs across writing domains, revealing consistent patterns of AI-assisted content in academic peer reviews, scientific publications, consumer complaints, corporate communications, job postings, and international organization press releases. Finally, I investigate LLMs' capability to provide feedback on research manuscripts through a large-scale empirical analysis, offering insights into their potential to support researchers who face barriers in accessing timely manuscript feedback, particularly early-career researchers and those from under-resourced settings.
- Abstract(参考訳): 大規模言語モデル(LLM)は、私たちがどのように書くか、コミュニケーションし、作成するかを変える大きな可能性を示しており、社会全体で急速に普及しています。
この論文は、個人や機関が3つの研究方向を通じて、この新興技術にどのように適応し、関与しているかを調べるものである。
まず、AI検出器の制度的採用が、体系的なバイアス、特に非支配的な言語品種のライターに不都合をもたらすことを実証し、AIガバナンスにおける重要な公平な懸念を強調します。
第2に、学術的査読、学術出版物、消費者苦情、企業コミュニケーション、求人情報、国際機関のプレスリリースにおいて、AI支援コンテンツの一貫したパターンを明らかにする。
最後に、大規模な実証分析を通じて研究用原稿にフィードバックを提供するLLMの能力について検討し、タイムリーな原稿フィードバック、特に早期介護者研究者や未調達環境の研究者の障壁に直面している研究者を支援する可能性について考察する。
関連論文リスト
- The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - Trends and Challenges in Authorship Analysis: A Review of ML, DL, and LLM Approaches [1.8686807993563161]
著者分析は、法医学言語学、アカデミア、サイバーセキュリティ、デジタルコンテンツ認証など、様々な領域で重要な役割を果たしている。
本稿では,著者分析の2つの重要なサブタスクである著者属性と著者検証について,体系的な文献レビューを行う。
論文 参考訳(メタデータ) (2025-05-21T12:06:08Z) - Divergent LLM Adoption and Heterogeneous Convergence Paths in Research Writing [0.8046044493355781]
LLM(Large Language Models)は、コンテンツ作成と学術的執筆を変革する。
本研究は,AIによる生成リビジョンが研究原稿に与える影響について検討する。
論文 参考訳(メタデータ) (2025-04-18T11:09:16Z) - A Survey on Post-training of Large Language Models [185.51013463503946]
大規模言語モデル(LLM)は、自然言語処理を根本的に変革し、会話システムから科学的探索まで、さまざまな領域で欠かせないものにしている。
これらの課題は、制限された推論能力、倫理的不確実性、最適なドメイン固有のパフォーマンスといった欠点に対処するために、先進的な訓練後言語モデル(PoLM)を必要とする。
本稿では,タスク固有の精度を向上するファインチューニング,倫理的コヒーレンスと人間の嗜好との整合性を保証するアライメント,報酬設計の課題によらず多段階の推論を進める推論,統合と適応の5つのパラダイムを体系的に追跡したPoLMの総合的な調査について述べる。
論文 参考訳(メタデータ) (2025-03-08T05:41:42Z) - Survey on Vision-Language-Action Models [0.2636873872510828]
この研究は、オリジナルの研究を表現していないが、AIが文学レビューの自動化にどのように役立つかを強調している。
今後の研究は、AI支援文学レビューのための構造化されたフレームワークの開発に焦点を当てる。
論文 参考訳(メタデータ) (2025-02-07T11:56:46Z) - Automating Intervention Discovery from Scientific Literature: A Progressive Ontology Prompting and Dual-LLM Framework [56.858564736806414]
本稿では,大規模言語モデル(LLM)を利用した科学文献の介入の同定手法を提案する。
言語病理領域における64,177論文のコーパスから,2,421件の介入が得られた。
論文 参考訳(メタデータ) (2024-08-20T16:42:23Z) - ResearchAgent: Iterative Research Idea Generation over Scientific Literature with Large Language Models [56.08917291606421]
ResearchAgentは、新しい作品のアイデアと運用のためのAIベースのシステムである。
ResearchAgentは、新しい問題を自動で定義し、手法と設計実験を提案し、繰り返し修正する。
我々は、複数の分野にわたる科学論文に関するResearchAgentを実験的に検証した。
論文 参考訳(メタデータ) (2024-04-11T13:36:29Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。