論文の概要: Internal and External Impacts of Natural Language Processing Papers
- arxiv url: http://arxiv.org/abs/2505.16061v1
- Date: Wed, 21 May 2025 22:25:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:47.936459
- Title: Internal and External Impacts of Natural Language Processing Papers
- Title(参考訳): 自然言語処理用紙の内部的・外部的影響
- Authors: Yu Zhang,
- Abstract要約: 学術コミュニティと一般大衆の両方で異なるNLPトピックが消費されるかを検討する。
その結果,言語モデルが最も内的・外的影響が大きいのに対して,言語基盤は影響が低いことが明らかとなった。
- 参考スコア(独自算出の注目度): 4.496989927037321
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate the impacts of NLP research published in top-tier conferences (i.e., ACL, EMNLP, and NAACL) from 1979 to 2024. By analyzing citations from research articles and external sources such as patents, media, and policy documents, we examine how different NLP topics are consumed both within the academic community and by the broader public. Our findings reveal that language modeling has the widest internal and external influence, while linguistic foundations have lower impacts. We also observe that internal and external impacts generally align, but topics like ethics, bias, and fairness show significant attention in policy documents with much fewer academic citations. Additionally, external domains exhibit distinct preferences, with patents focusing on practical NLP applications and media and policy documents engaging more with the societal implications of NLP models.
- Abstract(参考訳): 1979年から2024年にかけて,トップ層会議(ACL,EMNLP,NAACL)で発表されたNLP研究の影響について検討した。
研究論文や特許,メディア,政策文書などの外部資料からの引用を分析し,学術コミュニティ内および一般大衆の異なるNLPトピックがどのように消費されるかを検討する。
その結果,言語モデルが最も内的・外的影響が大きいのに対して,言語基盤は影響が低いことが明らかとなった。
また、内部および外部の影響は概ね一致しているが、倫理、偏見、公正といったトピックは、学術的な引用がはるかに少ない政策文書に顕著な注意を払っている。
さらに、外部ドメインは、実用的NLPアプリケーションに焦点を当てた特許や、NLPモデルの社会的含意により関与したメディアおよびポリシー文書など、異なる嗜好を示す。
関連論文リスト
- Natural Language Processing of Privacy Policies: A Survey [2.4058538793689497]
NLPとプライバシポリシの交差点で109の論文を分析して文献レビューを行う。
プライバシーポリシーを簡潔に紹介し、関連する諸問題について論じる。
堅牢なプライバシポリシを提供するために、さらに拡張可能な方法論を特定します。
論文 参考訳(メタデータ) (2025-01-17T17:47:15Z) - Transforming Scholarly Landscapes: Influence of Large Language Models on Academic Fields beyond Computer Science [77.31665252336157]
大規模言語モデル (LLM) は自然言語処理 (NLP) において転換期を迎えた。
本研究は,NLP以外の分野におけるLLMの影響と利用について実験的に検討する。
論文 参考訳(メタデータ) (2024-09-29T01:32:35Z) - The Nature of NLP: Analyzing Contributions in NLP Papers [77.31665252336157]
我々は,NLP研究を構成するものについて,研究論文から定量的に検討する。
以上の結果から,NLPにおける機械学習の関与は,90年代前半から増加傾向にあることが明らかとなった。
2020年以降、言語と人々への関心が復活した。
論文 参考訳(メタデータ) (2024-09-29T01:29:28Z) - From Insights to Actions: The Impact of Interpretability and Analysis Research on NLP [28.942812379900673]
解釈可能性と分析(IA)研究は、NLP内の成長するサブフィールドである。
我々は,IA研究がNLPの幅広い分野に与える影響を定量化する。
論文 参考訳(メタデータ) (2024-06-18T13:45:07Z) - Position: AI/ML Influencers Have a Place in the Academic Process [82.2069685579588]
機械学習研究の可視性向上におけるソーシャルメディアインフルエンサーの役割について検討する。
2018年12月から2023年10月までの間に、8000以上の論文の包括的なデータセットを収集しました。
我々の統計的および因果推論分析は、これらのインフルエンサーが支持する論文の引用が著しく増加することを示している。
論文 参考訳(メタデータ) (2024-01-24T20:05:49Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - We are Who We Cite: Bridges of Influence Between Natural Language Processing and Other Academic Fields [30.550895983110806]
自然言語処理の分野横断は減少している。
NLPの引用の8%以下は言語学に関するものである。
NLPの引用の3%以下は数学と心理学に関するものである。
論文 参考訳(メタデータ) (2023-10-23T12:42:06Z) - NLLG Quarterly arXiv Report 06/23: What are the most influential current
AI Papers? [15.830129136642755]
目的は、最も関連性があり広く議論されている研究のクイックガイドを提供することであり、新参者や確立された研究者が現在の傾向を振り返り続けるのを助けることである。
我々は2023年前半に,大規模言語モデル(LLM),特にChatGPTに関連する論文の優位性を観察した。
NLP関連の論文は、私たちのデータにはML関連の論文の2倍の数の論文があるにもかかわらず、最も影響力がある(トップ論文の約60%)。
論文 参考訳(メタデータ) (2023-07-31T11:53:52Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Revise and Resubmit: An Intertextual Model of Text-based Collaboration
in Peer Review [52.359007622096684]
ピアレビューは、ほとんどの科学分野における出版プロセスの重要な要素である。
既存のNLP研究は個々のテキストの分析に重点を置いている。
編集補助は、しばしばテキストのペア間の相互作用をモデル化する必要がある。
論文 参考訳(メタデータ) (2022-04-22T16:39:38Z) - We Need to Talk About Data: The Importance of Data Readiness in Natural
Language Processing [3.096615629099618]
我々は、NLPにおける学術研究と学術以外の問題への応用との間にはギャップがあると主張している。
本稿では,データのアクセシビリティ,有効性,有用性に関して,研究者と外部利害関係者のコミュニケーションを改善する方法を提案する。
論文 参考訳(メタデータ) (2021-10-11T17:55:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。