論文の概要: Preregistering NLP Research
- arxiv url: http://arxiv.org/abs/2103.06944v1
- Date: Thu, 11 Mar 2021 20:44:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 02:21:33.024095
- Title: Preregistering NLP Research
- Title(参考訳): 事前登録NLP研究
- Authors: Emiel van Miltenburg and Chris van der Lee and Emiel Krahmer
- Abstract要約: 本稿は,NLP研究者が研究を事前登録する方法について検討し,さまざまな研究のためにいくつかの事前登録質問を行う。
我々は,NLP研究における低速な科学の基盤となる,登録レポートを支持する。
本研究の目的は,NLPコミュニティにおける議論を提起することであり,今後の研究における一般的なNLP事前登録形式への合成を期待する。
- 参考スコア(独自算出の注目度): 4.379375502939481
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Preregistration refers to the practice of specifying what you are going to
do, and what you expect to find in your study, before carrying out the study.
This practice is increasingly common in medicine and psychology, but is rarely
discussed in NLP. This paper discusses preregistration in more detail, explores
how NLP researchers could preregister their work, and presents several
preregistration questions for different kinds of studies. Finally, we argue in
favour of registered reports, which could provide firmer grounds for slow
science in NLP research. The goal of this paper is to elicit a discussion in
the NLP community, which we hope to synthesise into a general NLP
preregistration form in future research.
- Abstract(参考訳): 事前登録(Preregistration)とは、研究を行う前に、自分が何をするか、そして研究で何を期待するかを特定するプラクティスである。
この習慣は医学や心理学でますます一般的ですが、NLPではめったに議論されていません。
本論文では, 事前登録についてより詳細に検討し, NLP 研究者の事前登録方法を検討し, 各種研究の事前登録問題を提示する。
最後に、我々はnlp研究におけるスローサイエンスの強固な根拠を提供する登録レポートを支持している。
本研究の目的は,NLPコミュニティにおける議論を提起することであり,今後の研究における一般的なNLP事前登録形式への合成を期待する。
関連論文リスト
- The Nature of NLP: Analyzing Contributions in NLP Papers [77.31665252336157]
我々は,NLP研究を構成するものについて,研究論文から定量的に検討する。
以上の結果から,NLPにおける機械学習の関与は,90年代前半から増加傾向にあることが明らかとなった。
2020年以降、言語と人々への関心が復活した。
論文 参考訳(メタデータ) (2024-09-29T01:29:28Z) - What Can Natural Language Processing Do for Peer Review? [173.8912784451817]
現代の科学ではピアレビューが広く使われているが、それは難しく、時間がかかり、エラーを起こしやすい。
ピアレビューに関わるアーティファクトは大部分がテキストベースであるため、自然言語処理はレビューを改善する大きな可能性を秘めている。
筆者らは、原稿提出からカメラ対応リビジョンまでの各工程について詳述し、NLP支援の課題と機会について論じる。
論文 参考訳(メタデータ) (2024-05-10T16:06:43Z) - NLP Reproducibility For All: Understanding Experiences of Beginners [6.190897257068862]
導入NLP講習会で93名の学生を対象に調査を行い,最近のNLP論文の結果を再現した。
プログラムのスキルと研究論文の理解が,演習の完了に費やした労力に限られた影響を与えていることがわかった。
我々は,NLP研究者が研究成果をオープンソース化する上で,これらのシンプルな側面に細心の注意を払うことを推奨する。
論文 参考訳(メタデータ) (2023-05-26T02:08:54Z) - Beyond Good Intentions: Reporting the Research Landscape of NLP for
Social Good [115.1507728564964]
NLP4SG Papersは3つのタスクを関連づけた科学データセットである。
これらのタスクはNLP4SGの論文を特定し、NLP4SGのランドスケープを特徴付けるのに役立つ。
現状のNLPモデルを用いてこれらのタスクに対処し、ACLアンソロジー全体においてそれらを使用する。
論文 参考訳(メタデータ) (2023-05-09T14:16:25Z) - A Two-Sided Discussion of Preregistration of NLP Research [7.847677707045473]
ヴァン・ミルテンブルクらは、NLPの研究は漁業遠征を防ぐために事前登録を採用するべきだと提案している。
古いものや新しいもの、などについて論じる。
論文 参考訳(メタデータ) (2023-02-20T16:48:34Z) - NLPeer: A Unified Resource for the Computational Study of Peer Review [58.71736531356398]
NLPeer - 5万以上の論文と5つの異なる会場からの1万1千件のレビューレポートからなる、初めて倫理的にソースされたマルチドメインコーパス。
従来のピアレビューデータセットを拡張し、解析および構造化された論文表現、豊富なメタデータ、バージョニング情報を含む。
我々の研究は、NLPなどにおけるピアレビューの体系的、多面的、エビデンスに基づく研究への道のりをたどっている。
論文 参考訳(メタデータ) (2022-11-12T12:29:38Z) - State-of-the-art generalisation research in NLP: A taxonomy and review [87.1541712509283]
NLPにおける一般化研究の特徴付けと理解のための分類法を提案する。
我々の分類学は、一般化研究の広範な文献レビューに基づいている。
私たちは、一般化をテストする400以上の論文を分類するために分類を使います。
論文 参考訳(メタデータ) (2022-10-06T16:53:33Z) - Reproducibility Beyond the Research Community: Experience from NLP
Beginners [6.957948096979098]
我々は,最近のNLP論文の成果を再現した入門NLP講座で,93名の学生を対象に調査を行った。
意外なことに、我々の結果は、彼らの技術スキル(つまりプログラミングの経験)が、演習の完了に費やした労力に限られた影響を与えていることを示唆している。
私たちは、研究著者によるアクセシビリティの取り組みが、詳細なドキュメントや必要なモデルやデータセットへのアクセスなど、成功した経験の鍵になることに気付きました。
論文 参考訳(メタデータ) (2022-05-04T16:54:00Z) - ITTC @ TREC 2021 Clinical Trials Track [54.141379782822206]
本課題は、患者の入院ノートの要約を構成するトピックに有効な臨床試験を適合させる問題に焦点を当てる。
NLP手法を用いて試行とトピックの表現方法を探索し、共通の検索モデルを用いて各トピックに関連するトライアルのランク付けリストを生成する。
提案されたすべての実行の結果は、すべてのトピックの中央値よりもはるかに上回っていますが、改善の余地はたくさんあります。
論文 参考訳(メタデータ) (2022-02-16T04:56:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。