論文の概要: Collaboration or Corporate Capture? Quantifying NLP's Reliance on
Industry Artifacts and Contributions
- arxiv url: http://arxiv.org/abs/2312.03912v1
- Date: Wed, 6 Dec 2023 21:12:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-08 16:37:31.846306
- Title: Collaboration or Corporate Capture? Quantifying NLP's Reliance on
Industry Artifacts and Contributions
- Title(参考訳): コラボレーションか、企業買収か?
NLPの産業人工物の信頼性の定量化と貢献
- Authors: Will Aitken and Mohamed Abdalla and Karen Rudie and Catherine Stinson
- Abstract要約: 業界アーティファクトの引用とカテゴリーごとのコントリビューションは、業界出版率の少なくとも3倍である。
代替手段がなければ、業界とのコラボレーションは継続するのでしょうか?
NLPフリー調査は民間企業のモチベーションや研究の方向性に捕らわれているか。
- 参考スコア(独自算出の注目度): 2.921830986717097
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The advent of transformers, higher computational budgets, and big data has
engendered remarkable progress in Natural Language Processing (NLP). Impressive
performance of industry pre-trained models has garnered public attention in
recent years and made news headlines. That these are industry models is
noteworthy. Rarely, if ever, are academic institutes producing exciting new NLP
models. Using these models is critical for competing on NLP benchmarks and
correspondingly to stay relevant in NLP research. We surveyed 100 papers
published at EMNLP 2022 to determine whether this phenomenon constitutes a
reliance on industry for NLP publications.
We find that there is indeed a substantial reliance. Citations of industry
artifacts and contributions across categories is at least three times greater
than industry publication rates per year. Quantifying this reliance does not
settle how we ought to interpret the results. We discuss two possible
perspectives in our discussion: 1) Is collaboration with industry still
collaboration in the absence of an alternative? Or 2) has free NLP inquiry been
captured by the motivations and research direction of private corporations?
- Abstract(参考訳): トランスフォーマーの出現、高い計算予算、そしてビッグデータは、自然言語処理(NLP)において顕著な進歩をもたらした。
業界で事前訓練されたモデルの印象的なパフォーマンスは近年大衆の注目を集め、ニュースの見出しになった。
業界モデルであることは注目に値する。
ごく稀に、学術機関が新しいNLPモデルを生み出している。
これらのモデルの使用は、NLPベンチマークと競合し、NLP研究に関連性を維持するために重要である。
EMNLP 2022で公表された100の論文を調査し,この現象がNLP出版の産業に依存しているかどうかを調査した。
私たちは確かにかなりの信頼関係があることに気付きました。
業界アーチファクトの引用とカテゴリ間の貢献は、毎年の業界出版率の少なくとも3倍大きい。
この信頼性の定量化は、結果をどう解釈すべきかを決着させるものではない。
議論で考えられる2つの視点について論じる。
1) 業界とのコラボレーションはいまだに代替手段がないか?
あるいは
2)nlpの無料調査は、民間企業の動機や研究方針に捉えられているか。
関連論文リスト
- Who should I Collaborate with? A Comparative Study of Academia and
Industry Research Collaboration in NLP [5.929956715430167]
本研究の目的は,学術と産業の連携が自然言語処理(NLP)に及ぼす影響を検討することである。
我々は,NLP論文からアフィリエイトや引用を抽出するパイプラインを作成し,これらをアカデミック,産業,ハイブリッド(アカデミックと産業の連携)の3つのカテゴリに分けた。
実証分析の結果,産業界と産業界が連携する出版物の増加傾向がみられた。
論文 参考訳(メタデータ) (2023-07-21T01:26:29Z) - Topics, Authors, and Institutions in Large Language Model Research:
Trends from 17K arXiv Papers [1.6133250526830356]
大規模言語モデル(LLM)がAI研究に劇的に影響を与えており、これまで何が変わったのか、どのようにフィールドの未来を形作るかについての議論が引き起こされている。
このような疑問を明らかにするために,我々は,2023年対2018-2022年の動向に着目し,16,979 LLM関連arXiv論文のデータセットを新たに分析した。
2023年に最初の著者の半数が、AIの非NLP分野から参入し、学際的な拡張を推進している。
驚いたことに、業界は2023年の出版シェアを減らした。
論文 参考訳(メタデータ) (2023-07-20T08:45:00Z) - Surveying (Dis)Parities and Concerns of Compute Hungry NLP Research [75.84463664853125]
我々は,3つのトピック,すなわち環境影響,株式,およびピアレビューへの影響に関する懸念を定量化するための最初の試みを提供する。
我々は、高齢者、アカデミック、産業に関して、異なるグループと異なるグループ内の既存の(異なる)格差を捉えます。
私たちは、発見された格差を軽減するためのレコメンデーションを考案しました。
論文 参考訳(メタデータ) (2023-06-29T12:44:53Z) - A PhD Student's Perspective on Research in NLP in the Era of Very Large
Language Models [28.01821384651321]
大規模言語モデルの最近の進歩は、多くの生成NLPアプリケーションのデプロイを可能にしている。
この文書は、NLP研究の方向性をまとめたもので、探索に豊富である。
論文 参考訳(メタデータ) (2023-05-21T19:06:30Z) - Beyond Good Intentions: Reporting the Research Landscape of NLP for
Social Good [115.1507728564964]
NLP4SG Papersは3つのタスクを関連づけた科学データセットである。
これらのタスクはNLP4SGの論文を特定し、NLP4SGのランドスケープを特徴付けるのに役立つ。
現状のNLPモデルを用いてこれらのタスクに対処し、ACLアンソロジー全体においてそれらを使用する。
論文 参考訳(メタデータ) (2023-05-09T14:16:25Z) - The Elephant in the Room: Analyzing the Presence of Big Tech in Natural
Language Processing Research [22.002411461970574]
我々は、78,187のNLP出版物と701のNLP出版物の包括的なメタデータを持つコーパスを使用する。
NLP作家の業界における存在感は、過去5年間で急激な増加を前に着実に推移している。
いくつかの企業は出版物の大半を占め、助成金やインターンシップを通じて学術研究者に資金を提供している。
論文 参考訳(メタデータ) (2023-05-04T12:57:18Z) - A Major Obstacle for NLP Research: Let's Talk about Time Allocation! [25.820755718678786]
本稿は、自然言語処理の分野では、私たちよりも成功しなかったことを論じる。
近年,NLP研究において,時間割当が大きな障害となっていることが実証された。
論文 参考訳(メタデータ) (2022-11-30T10:00:12Z) - NLPeer: A Unified Resource for the Computational Study of Peer Review [58.71736531356398]
NLPeer - 5万以上の論文と5つの異なる会場からの1万1千件のレビューレポートからなる、初めて倫理的にソースされたマルチドメインコーパス。
従来のピアレビューデータセットを拡張し、解析および構造化された論文表現、豊富なメタデータ、バージョニング情報を含む。
我々の研究は、NLPなどにおけるピアレビューの体系的、多面的、エビデンスに基づく研究への道のりをたどっている。
論文 参考訳(メタデータ) (2022-11-12T12:29:38Z) - Geographic Citation Gaps in NLP Research [63.13508571014673]
この研究は、地理的な位置と出版の成功との関係について一連の疑問を呈する。
われわれはまず,ACLアンソロジーから7万件の論文のデータセットを作成し,そのメタ情報を抽出し,引用ネットワークを生成した。
論文の受理や引用において地理的に大きな差異があるだけでなく,出版場所やNLPのサブフィールドなどの変数を制御しても,これらの格差は持続することを示す。
論文 参考訳(メタデータ) (2022-10-26T02:25:23Z) - Square One Bias in NLP: Towards a Multi-Dimensional Exploration of the
Research Manifold [88.83876819883653]
我々は、最近のNLP研究論文のマニュアル分類を通して、これが事実であることを示す。
NLP研究は正方形ではなく、精度だけでなく、公平性や解釈可能性にも焦点をあてる。
論文 参考訳(メタデータ) (2022-06-20T13:04:23Z) - Link Prediction on N-ary Relational Data Based on Relatedness Evaluation [61.61555159755858]
我々は,n-aryリレーショナルデータ上でリンク予測を行うNaLPという手法を提案する。
各 n 個の関係事実を、その役割と役割と値のペアの集合として表現する。
実験結果は,提案手法の有効性と有用性を検証した。
論文 参考訳(メタデータ) (2021-04-21T09:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。