論文の概要: Surveying (Dis)Parities and Concerns of Compute Hungry NLP Research
- arxiv url: http://arxiv.org/abs/2306.16900v2
- Date: Thu, 9 Nov 2023 13:52:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-10 18:13:55.610111
- Title: Surveying (Dis)Parities and Concerns of Compute Hungry NLP Research
- Title(参考訳): 空腹nlp研究の実態調査(dis)と課題
- Authors: Ji-Ung Lee, Haritz Puerto, Betty van Aken, Yuki Arase, Jessica Zosa
Forde, Leon Derczynski, Andreas R\"uckl\'e, Iryna Gurevych, Roy Schwartz,
Emma Strubell, Jesse Dodge
- Abstract要約: 我々は,3つのトピック,すなわち環境影響,株式,およびピアレビューへの影響に関する懸念を定量化するための最初の試みを提供する。
我々は、高齢者、アカデミック、産業に関して、異なるグループと異なるグループ内の既存の(異なる)格差を捉えます。
私たちは、発見された格差を軽減するためのレコメンデーションを考案しました。
- 参考スコア(独自算出の注目度): 75.84463664853125
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many recent improvements in NLP stem from the development and use of large
pre-trained language models (PLMs) with billions of parameters. Large model
sizes makes computational cost one of the main limiting factors for training
and evaluating such models; and has raised severe concerns about the
sustainability, reproducibility, and inclusiveness for researching PLMs. These
concerns are often based on personal experiences and observations. However,
there had not been any large-scale surveys that investigate them. In this work,
we provide a first attempt to quantify these concerns regarding three topics,
namely, environmental impact, equity, and impact on peer reviewing. By
conducting a survey with 312 participants from the NLP community, we capture
existing (dis)parities between different and within groups with respect to
seniority, academia, and industry; and their impact on the peer reviewing
process. For each topic, we provide an analysis and devise recommendations to
mitigate found disparities, some of which already successfully implemented.
Finally, we discuss additional concerns raised by many participants in
free-text responses.
- Abstract(参考訳): NLPの最近の多くの改良は、数十億のパラメータを持つ大規模事前学習言語モデル(PLM)の開発と使用に起因している。
大きなモデルサイズは、計算コストをそのようなモデルを訓練し評価するための主な制限要素にし、plmの研究の持続可能性、再現性、包括性に関する深刻な懸念を提起している。
これらの懸念はしばしば個人的な経験と観察に基づいている。
しかし、それらを調査する大規模な調査は行われていなかった。
本研究は, 環境影響, 株式, ピアレビューの影響の3つのトピックについて, これらの懸念を定量化するための最初の試みである。
NLPコミュニティから312人の参加者を対象に調査を行い、高齢者、アカデミア、産業におけるグループ内およびグループ内における既存(格差)と、それらがピアレビュープロセスに与える影響を把握した。
それぞれのトピックについて分析を行い、発見された格差を軽減するためのレコメンデーションを作成します。
最後に、自由テキスト応答における多くの参加者による追加の懸念について論じる。
関連論文リスト
- On Behalf of the Stakeholders: Trends in NLP Model Interpretability in the Era of LLMs [20.589396689900614]
この記事では、なぜ解釈可能性が必要なのか、どのように解釈されているのか、という3つの根本的な疑問に対処する。
これらの質問を探索することにより、既存の解釈可能性パラダイム、それらの特性、および異なる利害関係者との関係について検討する。
分析の結果,NLP開発者と非開発者ユーザ,および研究分野の相違が明らかとなり,利害関係者の多様なニーズを浮き彫りにしている。
論文 参考訳(メタデータ) (2024-07-27T08:00:27Z) - From Insights to Actions: The Impact of Interpretability and Analysis Research on NLP [28.942812379900673]
解釈可能性と分析(IA)研究は、NLP内の成長するサブフィールドである。
我々は,IA研究がNLPの幅広い分野に与える影響を定量化する。
論文 参考訳(メタデータ) (2024-06-18T13:45:07Z) - What Can Natural Language Processing Do for Peer Review? [173.8912784451817]
現代の科学ではピアレビューが広く使われているが、それは難しく、時間がかかり、エラーを起こしやすい。
ピアレビューに関わるアーティファクトは大部分がテキストベースであるため、自然言語処理はレビューを改善する大きな可能性を秘めている。
筆者らは、原稿提出からカメラ対応リビジョンまでの各工程について詳述し、NLP支援の課題と機会について論じる。
論文 参考訳(メタデータ) (2024-05-10T16:06:43Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - SemEval-2023 Task 11: Learning With Disagreements (LeWiDi) [75.85548747729466]
共有タスクのLeWiDiシリーズの第2版について報告する。
この第2版は幅広い参加者を集め、13のタスクの共用論文が提出された。
論文 参考訳(メタデータ) (2023-04-28T12:20:35Z) - A Survey of Methods for Addressing Class Imbalance in Deep-Learning
Based Natural Language Processing [68.37496795076203]
非バランスなデータを扱うNLP研究者や実践者に対してガイダンスを提供する。
まず、制御および実世界のクラス不均衡の様々なタイプについて論じる。
サンプリング,データ拡張,損失関数の選択,ステージ学習,モデル設計に基づく手法を整理する。
論文 参考訳(メタデータ) (2022-10-10T13:26:40Z) - What Do NLP Researchers Believe? Results of the NLP Community Metasurvey [43.763865378178245]
NLP Community Metasurveyの結果を報告する。
この調査は議論を呼んだ問題に関する意見を提起した。
コミュニティの予測が現実と一致しない誤った社会学的信念を見出す。
論文 参考訳(メタデータ) (2022-08-26T19:45:51Z) - What Factors Should Paper-Reviewer Assignments Rely On? Community
Perspectives on Issues and Ideals in Conference Peer-Review [20.8704278772718]
NLPコミュニティの第1回調査の結果を報告する。
我々は,ペーパーリビューアマッチングシステムにおいて,どの要因を考慮すべきかという共通問題と視点を同定する。
論文 参考訳(メタデータ) (2022-05-02T16:07:02Z) - Sentiment Analysis Based on Deep Learning: A Comparative Study [69.09570726777817]
世論の研究は我々に貴重な情報を提供することができる。
感情分析の効率性と正確性は、自然言語処理で直面する課題によって妨げられている。
本稿では、感情分析の問題を解決するためにディープラーニングを用いた最新の研究をレビューする。
論文 参考訳(メタデータ) (2020-06-05T16:28:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。