論文の概要: Internal and External Impacts of Natural Language Processing Papers
- arxiv url: http://arxiv.org/abs/2505.16061v1
- Date: Wed, 21 May 2025 22:25:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:47.936459
- Title: Internal and External Impacts of Natural Language Processing Papers
- Title(参考訳): 自然言語処理用紙の内部的・外部的影響
- Authors: Yu Zhang,
- Abstract要約: 学術コミュニティと一般大衆の両方で異なるNLPトピックが消費されるかを検討する。
その結果,言語モデルが最も内的・外的影響が大きいのに対して,言語基盤は影響が低いことが明らかとなった。
- 参考スコア(独自算出の注目度): 4.496989927037321
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate the impacts of NLP research published in top-tier conferences (i.e., ACL, EMNLP, and NAACL) from 1979 to 2024. By analyzing citations from research articles and external sources such as patents, media, and policy documents, we examine how different NLP topics are consumed both within the academic community and by the broader public. Our findings reveal that language modeling has the widest internal and external influence, while linguistic foundations have lower impacts. We also observe that internal and external impacts generally align, but topics like ethics, bias, and fairness show significant attention in policy documents with much fewer academic citations. Additionally, external domains exhibit distinct preferences, with patents focusing on practical NLP applications and media and policy documents engaging more with the societal implications of NLP models.
- Abstract(参考訳): 1979年から2024年にかけて,トップ層会議(ACL,EMNLP,NAACL)で発表されたNLP研究の影響について検討した。
研究論文や特許,メディア,政策文書などの外部資料からの引用を分析し,学術コミュニティ内および一般大衆の異なるNLPトピックがどのように消費されるかを検討する。
その結果,言語モデルが最も内的・外的影響が大きいのに対して,言語基盤は影響が低いことが明らかとなった。
また、内部および外部の影響は概ね一致しているが、倫理、偏見、公正といったトピックは、学術的な引用がはるかに少ない政策文書に顕著な注意を払っている。
さらに、外部ドメインは、実用的NLPアプリケーションに焦点を当てた特許や、NLPモデルの社会的含意により関与したメディアおよびポリシー文書など、異なる嗜好を示す。
関連論文リスト
- The Nature of NLP: Analyzing Contributions in NLP Papers [77.31665252336157]
我々は,NLP研究を構成するものについて,研究論文から定量的に検討する。
以上の結果から,NLPにおける機械学習の関与は,90年代前半から増加傾向にあることが明らかとなった。
2020年以降、言語と人々への関心が復活した。
論文 参考訳(メタデータ) (2024-09-29T01:29:28Z) - From Insights to Actions: The Impact of Interpretability and Analysis Research on NLP [28.942812379900673]
解釈可能性と分析(IA)研究は、NLP内の成長するサブフィールドである。
我々は,IA研究がNLPの幅広い分野に与える影響を定量化する。
論文 参考訳(メタデータ) (2024-06-18T13:45:07Z) - Position: AI/ML Influencers Have a Place in the Academic Process [82.2069685579588]
機械学習研究の可視性向上におけるソーシャルメディアインフルエンサーの役割について検討する。
2018年12月から2023年10月までの間に、8000以上の論文の包括的なデータセットを収集しました。
我々の統計的および因果推論分析は、これらのインフルエンサーが支持する論文の引用が著しく増加することを示している。
論文 参考訳(メタデータ) (2024-01-24T20:05:49Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - We are Who We Cite: Bridges of Influence Between Natural Language Processing and Other Academic Fields [30.550895983110806]
自然言語処理の分野横断は減少している。
NLPの引用の8%以下は言語学に関するものである。
NLPの引用の3%以下は数学と心理学に関するものである。
論文 参考訳(メタデータ) (2023-10-23T12:42:06Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。