論文の概要: Defining a New NLP Playground
- arxiv url: http://arxiv.org/abs/2310.20633v1
- Date: Tue, 31 Oct 2023 17:02:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 14:04:35.750952
- Title: Defining a New NLP Playground
- Title(参考訳): 新しいNLPプレイグラウンドを定義する
- Authors: Sha Li, Chi Han, Pengfei Yu, Carl Edwards, Manling Li, Xingyao Wang,
Yi R. Fung, Charles Yu, Joel R. Tetreault, Eduard H. Hovy, Heng Ji
- Abstract要約: 最近の大規模言語モデルの性能の爆発により、自然言語処理の分野は80年の歴史の中で他のどの変化よりも突然かつ地震的に変化した。
本稿では、理論解析、新しい課題、学習パラダイム、学際的応用など、20以上の博士論文にふさわしい研究方向性を提案する。
- 参考スコア(独自算出の注目度): 85.41973504055588
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The recent explosion of performance of large language models (LLMs) has
changed the field of Natural Language Processing (NLP) more abruptly and
seismically than any other shift in the field's 80-year history. This has
resulted in concerns that the field will become homogenized and
resource-intensive. The new status quo has put many academic researchers,
especially PhD students, at a disadvantage. This paper aims to define a new NLP
playground by proposing 20+ PhD-dissertation-worthy research directions,
covering theoretical analysis, new and challenging problems, learning
paradigms, and interdisciplinary applications.
- Abstract(参考訳): 近年の大規模言語モデル(LLM)の性能の爆発により、NLP(自然言語処理)の分野は80年の歴史における他のどの変化よりも突然かつ地震的に変化した。
これにより、この分野は均質化され、資源集約的になるという懸念が生じた。
新しい現状は、多くの学術研究者、特に博士課程の学生を不利にしている。
本稿では,20以上の博士論文にふさわしい研究方向性を提案し,理論解析,新しい課題,学習パラダイム,学際的応用について述べる。
関連論文リスト
- The Nature of NLP: Analyzing Contributions in NLP Papers [77.31665252336157]
我々は,NLP研究を構成するものについて,研究論文から定量的に検討する。
以上の結果から,NLPにおける機械学習の関与は,90年代前半から増加傾向にあることが明らかとなった。
2020年以降、言語と人々への関心が復活した。
論文 参考訳(メタデータ) (2024-09-29T01:29:28Z) - Position: Topological Deep Learning is the New Frontier for Relational Learning [51.05869778335334]
トポロジカルディープラーニング(TDL)は、トポロジカルな特徴を用いてディープラーニングモデルを理解し設計する、急速に進化する分野である。
本稿では,TDLがリレーショナル学習の新たなフロンティアであることを示す。
論文 参考訳(メタデータ) (2024-02-14T00:35:10Z) - Large Language Model for Science: A Study on P vs. NP [88.67249044141529]
大規模言語モデル(LLM)を用いて,P対NP問題の研究を促進・促進する。
具体的には、複雑な問題解決のためのLLMを用いた奥行き思考を促進する一般的なフレームワークであるソクラティック推論を提案する。
我々のP対NP問題に関するパイロット研究は、GPT-4が証明スキーマの生成に成功し、97の対話ターンを通して厳密な推論を行うことを示した。
論文 参考訳(メタデータ) (2023-09-11T17:49:27Z) - Exploring the Landscape of Natural Language Processing Research [3.3916160303055567]
NLP関連のいくつかのアプローチが研究コミュニティで調査されている。
確立したトピックを分類し、傾向を特定し、今後の研究分野を概説する総合的研究はいまだに残っていない。
その結果,NLPにおける研究分野の分類,最近のNLPの発展分析,研究成果の要約,今後の研究の方向性について概説した。
論文 参考訳(メタデータ) (2023-07-20T07:33:30Z) - SciMON: Scientific Inspiration Machines Optimized for Novelty [68.46036589035539]
文献に基づく新たな科学的方向を生成するために,ニューラルランゲージモデルを探索し,拡張する。
モデルが入力背景コンテキストとして使用される新しい設定で、劇的な出発をとっています。
本稿では,過去の科学的論文から「吸入」を抽出するモデリングフレームワークであるSciMONを紹介する。
論文 参考訳(メタデータ) (2023-05-23T17:12:08Z) - Searching for chromate replacements using natural language processing
and machine learning algorithms [0.0]
本研究は、科学的文献の自動解釈から知識を抽出し、専門家による人間レベルの洞察を得ることが可能であることを実証する。
我々は、以前他の人によって探求されたWord2VecモデルとBERTモデルを採用し、それらを材料工学におけるユニークな挑戦に適用した。
論文 参考訳(メタデータ) (2022-08-11T07:21:18Z) - Knowledge Enhanced Pretrained Language Models: A Compreshensive Survey [8.427521246916463]
事前学習型言語モデル(PLM)は,大規模テキストコーパス上で情報表現を学習することで,新たなパラダイムを確立した。
この新しいパラダイムは、自然言語処理の分野全体に革命をもたらし、さまざまなNLPタスクに対して、新しい最先端のパフォーマンスを設定した。
この問題に対処するため, PLM への知識統合は近年, 非常に活発な研究領域となり, 様々なアプローチが開発されている。
論文 参考訳(メタデータ) (2021-10-16T03:27:56Z) - Systematic Inequalities in Language Technology Performance across the
World's Languages [94.65681336393425]
本稿では,言語技術のグローバルな有用性を評価するためのフレームワークを紹介する。
本分析では, ユーザ対応技術と言語的NLPタスクの両面において, より深く研究されている。
論文 参考訳(メタデータ) (2021-10-13T14:03:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。