論文の概要: Collaboration or Corporate Capture? Quantifying NLP's Reliance on
Industry Artifacts and Contributions
- arxiv url: http://arxiv.org/abs/2312.03912v1
- Date: Wed, 6 Dec 2023 21:12:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-08 16:37:31.846306
- Title: Collaboration or Corporate Capture? Quantifying NLP's Reliance on
Industry Artifacts and Contributions
- Title(参考訳): コラボレーションか、企業買収か?
NLPの産業人工物の信頼性の定量化と貢献
- Authors: Will Aitken and Mohamed Abdalla and Karen Rudie and Catherine Stinson
- Abstract要約: 業界アーティファクトの引用とカテゴリーごとのコントリビューションは、業界出版率の少なくとも3倍である。
代替手段がなければ、業界とのコラボレーションは継続するのでしょうか?
NLPフリー調査は民間企業のモチベーションや研究の方向性に捕らわれているか。
- 参考スコア(独自算出の注目度): 2.921830986717097
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The advent of transformers, higher computational budgets, and big data has
engendered remarkable progress in Natural Language Processing (NLP). Impressive
performance of industry pre-trained models has garnered public attention in
recent years and made news headlines. That these are industry models is
noteworthy. Rarely, if ever, are academic institutes producing exciting new NLP
models. Using these models is critical for competing on NLP benchmarks and
correspondingly to stay relevant in NLP research. We surveyed 100 papers
published at EMNLP 2022 to determine whether this phenomenon constitutes a
reliance on industry for NLP publications.
We find that there is indeed a substantial reliance. Citations of industry
artifacts and contributions across categories is at least three times greater
than industry publication rates per year. Quantifying this reliance does not
settle how we ought to interpret the results. We discuss two possible
perspectives in our discussion: 1) Is collaboration with industry still
collaboration in the absence of an alternative? Or 2) has free NLP inquiry been
captured by the motivations and research direction of private corporations?
- Abstract(参考訳): トランスフォーマーの出現、高い計算予算、そしてビッグデータは、自然言語処理(NLP)において顕著な進歩をもたらした。
業界で事前訓練されたモデルの印象的なパフォーマンスは近年大衆の注目を集め、ニュースの見出しになった。
業界モデルであることは注目に値する。
ごく稀に、学術機関が新しいNLPモデルを生み出している。
これらのモデルの使用は、NLPベンチマークと競合し、NLP研究に関連性を維持するために重要である。
EMNLP 2022で公表された100の論文を調査し,この現象がNLP出版の産業に依存しているかどうかを調査した。
私たちは確かにかなりの信頼関係があることに気付きました。
業界アーチファクトの引用とカテゴリ間の貢献は、毎年の業界出版率の少なくとも3倍大きい。
この信頼性の定量化は、結果をどう解釈すべきかを決着させるものではない。
議論で考えられる2つの視点について論じる。
1) 業界とのコラボレーションはいまだに代替手段がないか?
あるいは
2)nlpの無料調査は、民間企業の動機や研究方針に捉えられているか。
関連論文リスト
- The Nature of NLP: Analyzing Contributions in NLP Papers [77.31665252336157]
我々は,NLP研究を構成するものについて,研究論文から定量的に検討する。
以上の結果から,NLPにおける機械学習の関与は,90年代前半から増加傾向にあることが明らかとなった。
2020年以降、言語と人々への関心が復活した。
論文 参考訳(メタデータ) (2024-09-29T01:29:28Z) - What Can Natural Language Processing Do for Peer Review? [173.8912784451817]
現代の科学ではピアレビューが広く使われているが、それは難しく、時間がかかり、エラーを起こしやすい。
ピアレビューに関わるアーティファクトは大部分がテキストベースであるため、自然言語処理はレビューを改善する大きな可能性を秘めている。
筆者らは、原稿提出からカメラ対応リビジョンまでの各工程について詳述し、NLP支援の課題と機会について論じる。
論文 参考訳(メタデータ) (2024-05-10T16:06:43Z) - We are Who We Cite: Bridges of Influence Between Natural Language Processing and Other Academic Fields [30.550895983110806]
自然言語処理の分野横断は減少している。
NLPの引用の8%以下は言語学に関するものである。
NLPの引用の3%以下は数学と心理学に関するものである。
論文 参考訳(メタデータ) (2023-10-23T12:42:06Z) - Who should I Collaborate with? A Comparative Study of Academia and
Industry Research Collaboration in NLP [5.929956715430167]
本研究の目的は,学術と産業の連携が自然言語処理(NLP)に及ぼす影響を検討することである。
我々は,NLP論文からアフィリエイトや引用を抽出するパイプラインを作成し,これらをアカデミック,産業,ハイブリッド(アカデミックと産業の連携)の3つのカテゴリに分けた。
実証分析の結果,産業界と産業界が連携する出版物の増加傾向がみられた。
論文 参考訳(メタデータ) (2023-07-21T01:26:29Z) - Beyond Good Intentions: Reporting the Research Landscape of NLP for
Social Good [115.1507728564964]
NLP4SG Papersは3つのタスクを関連づけた科学データセットである。
これらのタスクはNLP4SGの論文を特定し、NLP4SGのランドスケープを特徴付けるのに役立つ。
現状のNLPモデルを用いてこれらのタスクに対処し、ACLアンソロジー全体においてそれらを使用する。
論文 参考訳(メタデータ) (2023-05-09T14:16:25Z) - The Elephant in the Room: Analyzing the Presence of Big Tech in Natural Language Processing Research [28.382353702576314]
我々は、78,187のNLP出版物と701のNLP出版物の包括的なメタデータを持つコーパスを使用する。
NLP作家の業界における存在感は、過去5年間で急激な増加を前に着実に推移している。
いくつかの企業は出版物の大半を占め、助成金やインターンシップを通じて学術研究者に資金を提供している。
論文 参考訳(メタデータ) (2023-05-04T12:57:18Z) - NLPeer: A Unified Resource for the Computational Study of Peer Review [58.71736531356398]
NLPeer - 5万以上の論文と5つの異なる会場からの1万1千件のレビューレポートからなる、初めて倫理的にソースされたマルチドメインコーパス。
従来のピアレビューデータセットを拡張し、解析および構造化された論文表現、豊富なメタデータ、バージョニング情報を含む。
我々の研究は、NLPなどにおけるピアレビューの体系的、多面的、エビデンスに基づく研究への道のりをたどっている。
論文 参考訳(メタデータ) (2022-11-12T12:29:38Z) - Geographic Citation Gaps in NLP Research [63.13508571014673]
この研究は、地理的な位置と出版の成功との関係について一連の疑問を呈する。
われわれはまず,ACLアンソロジーから7万件の論文のデータセットを作成し,そのメタ情報を抽出し,引用ネットワークを生成した。
論文の受理や引用において地理的に大きな差異があるだけでなく,出版場所やNLPのサブフィールドなどの変数を制御しても,これらの格差は持続することを示す。
論文 参考訳(メタデータ) (2022-10-26T02:25:23Z) - Square One Bias in NLP: Towards a Multi-Dimensional Exploration of the
Research Manifold [88.83876819883653]
我々は、最近のNLP研究論文のマニュアル分類を通して、これが事実であることを示す。
NLP研究は正方形ではなく、精度だけでなく、公平性や解釈可能性にも焦点をあてる。
論文 参考訳(メタデータ) (2022-06-20T13:04:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。