論文の概要: A PhD Student's Perspective on Research in NLP in the Era of Very Large
Language Models
- arxiv url: http://arxiv.org/abs/2305.12544v1
- Date: Sun, 21 May 2023 19:06:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 19:47:18.068143
- Title: A PhD Student's Perspective on Research in NLP in the Era of Very Large
Language Models
- Title(参考訳): 大規模言語モデル時代のnlp研究における博士課程生の視点
- Authors: Oana Ignat, Zhijing Jin, Artem Abzaliev, Laura Biester, Santiago
Castro, Naihao Deng, Xinyi Gao, Aylin Gunal, Jacky He, Ashkan Kazemi,
Muhammad Khalifa, Namho Koh, Andrew Lee, Siyang Liu, Do June Min, Shinka
Mori, Joan Nwatu, Veronica Perez-Rosas, Siqi Shen, Zekun Wang, Winston Wu,
Rada Mihalcea
- Abstract要約: 大規模言語モデルの最近の進歩は、多くの生成NLPアプリケーションのデプロイを可能にしている。
この文書は、NLP研究の方向性をまとめたもので、探索に豊富である。
- 参考スコア(独自算出の注目度): 28.01821384651321
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent progress in large language models has enabled the deployment of many
generative NLP applications. At the same time, it has also led to a misleading
public discourse that ``it's all been solved.'' Not surprisingly, this has in
turn made many NLP researchers -- especially those at the beginning of their
career -- wonder about what NLP research area they should focus on. This
document is a compilation of NLP research directions that are rich for
exploration, reflecting the views of a diverse group of PhD students in an
academic research lab. While we identify many research areas, many others
exist; we do not cover those areas that are currently addressed by LLMs but
where LLMs lag behind in performance, or those focused on LLM development. We
welcome suggestions for other research directions to include:
https://bit.ly/nlp-era-llm
- Abstract(参考訳): 大規模言語モデルの最近の進歩は、多くの生成NLPアプリケーションのデプロイを可能にしている。
同時に、これは '`it' がすべて解決されたという誤解を招く公の談話にも繋がった。
驚くべきことではないが、これによって多くのNLP研究者(特にキャリアの始めの研究者)は、NLPの研究分野がどの分野に注力すべきか疑問に思うようになった。
本論文は,NLP研究の方向性をまとめたもので,研究機関における多種多様なPhD学生の視点を反映したものである。
LLMが現在対応している分野ではなく、LLMが性能面で遅れている分野や、LLM開発に焦点を当てている分野をカバーしています。
https://bit.ly/nlp-era-llm。
関連論文リスト
- LLMs as Research Tools: A Large Scale Survey of Researchers' Usage and Perceptions [20.44227547555244]
大規模言語モデル (LLMs) は、多くの研究者が科学的な研究に利用することを検討している。
筆者らによる816件の研究論文の大規模調査を行った。
81%の研究者がすでにLLMを研究ワークフローのさまざまな側面に組み込んでいることがわかった。
論文 参考訳(メタデータ) (2024-10-30T04:25:23Z) - Are LLMs Aware that Some Questions are not Open-ended? [58.93124686141781]
大規模言語モデルでは、いくつかの質問が限定的な回答を持ち、より決定論的に答える必要があることを認識しているかどうかを調査する。
LLMにおける疑問認識の欠如は,(1)非オープンな質問に答えるにはカジュアルすぎる,(2)オープンな質問に答えるには退屈すぎる,という2つの現象をもたらす。
論文 参考訳(メタデータ) (2024-10-01T06:07:00Z) - Transforming Scholarly Landscapes: Influence of Large Language Models on Academic Fields beyond Computer Science [77.31665252336157]
大規模言語モデル (LLM) は自然言語処理 (NLP) において転換期を迎えた。
本研究は,NLP以外の分野におけるLLMの影響と利用について実験的に検討する。
論文 参考訳(メタデータ) (2024-09-29T01:32:35Z) - Large Language Models Meet NLP: A Survey [79.74450825763851]
大規模言語モデル(LLM)は自然言語処理(NLP)タスクにおいて印象的な機能を示している。
本研究は,以下の課題を探求することによって,このギャップに対処することを目的とする。
論文 参考訳(メタデータ) (2024-05-21T14:24:01Z) - Large Language Models and Games: A Survey and Roadmap [3.691822987444594]
大規模言語モデル(LLM)は、ゲームを含む幅広いアプリケーションやドメインにおいて、顕著なポテンシャルを示している。
本稿では,ゲームにおけるLLMの様々な応用状況を調査し,ゲーム内でLLMが果たす役割について検討する。
論文 参考訳(メタデータ) (2024-02-28T19:09:08Z) - Small Models, Big Insights: Leveraging Slim Proxy Models To Decide When and What to Retrieve for LLMs [60.40396361115776]
本稿では,スリムプロキシモデルを用いた大規模言語モデル (LLM) における知識不足を検知する新しい協調手法であるSlimPLMを提案する。
パラメータがはるかに少ないプロキシモデルを採用し、回答を回答としています。
ヒューリスティックな回答は、LLM内の既知の未知の知識と同様に、ユーザの質問に答えるために必要な知識を予測するのに使用される。
論文 参考訳(メタデータ) (2024-02-19T11:11:08Z) - Investigating Answerability of LLMs for Long-Form Question Answering [35.41413072729483]
実用的で影響力のある応用がいくつかあるので、長文質問応答(LFQA)に焦点を当てる。
本稿では,要約の要約から質問生成手法を提案し,長い文書の要約からフォローアップ質問を生成することで,困難な設定を実現できることを示す。
論文 参考訳(メタデータ) (2023-09-15T07:22:56Z) - Beyond Good Intentions: Reporting the Research Landscape of NLP for
Social Good [115.1507728564964]
NLP4SG Papersは3つのタスクを関連づけた科学データセットである。
これらのタスクはNLP4SGの論文を特定し、NLP4SGのランドスケープを特徴付けるのに役立つ。
現状のNLPモデルを用いてこれらのタスクに対処し、ACLアンソロジー全体においてそれらを使用する。
論文 参考訳(メタデータ) (2023-05-09T14:16:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。