論文の概要: Experimental Standards for Deep Learning Research: A Natural Language
Processing Perspective
- arxiv url: http://arxiv.org/abs/2204.06251v1
- Date: Wed, 13 Apr 2022 08:42:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-14 19:50:43.040527
- Title: Experimental Standards for Deep Learning Research: A Natural Language
Processing Perspective
- Title(参考訳): ディープラーニング研究のための実験標準:自然言語処理の視点から
- Authors: Dennis Ulmer, Elisa Bassignana, Max M\"uller-Eberstein, Daniel Varab,
Mike Zhang, Christian Hardmeier, Barbara Plank
- Abstract要約: 我々は,Deep Learningの実験的な標準に関する議論を,単一の,広く適用可能な方法論に精査する。
これらのベストプラクティスは、実験的な証拠を強化し、改善し、科学的進歩を可能にするために不可欠である。
これらの標準は、将来のニーズに透過的に適応するために、パブリックリポジトリに収集されます。
- 参考スコア(独自算出の注目度): 13.78630683300752
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The field of Deep Learning (DL) has undergone explosive growth during the
last decade, with a substantial impact on Natural Language Processing (NLP) as
well. Yet, as with other fields employing DL techniques, there has been a lack
of common experimental standards compared to more established disciplines.
Starting from fundamental scientific principles, we distill ongoing discussions
on experimental standards in DL into a single, widely-applicable methodology.
Following these best practices is crucial to strengthening experimental
evidence, improve reproducibility and enable scientific progress. These
standards are further collected in a public repository to help them
transparently adapt to future needs.
- Abstract(参考訳): ディープラーニング(DL)の分野は過去10年間で爆発的な成長を遂げており、自然言語処理(NLP)にも大きな影響を与えている。
しかし、他の分野のDL技術と同様に、より確立された分野と比較して、共通の実験基準が欠如している。
基礎的な科学的原則から始まり、DLの実験的な標準に関する議論を単一の、広く適用可能な方法論に精査する。
これらのベストプラクティスに従うことは、実験的な証拠を強化し、再現性を改善し、科学的進歩を可能にするために重要である。
これらの標準はさらにパブリックリポジトリに収集され、将来のニーズに透過的に適応するのに役立つ。
関連論文リスト
- Latent Paraphrasing: Perturbation on Layers Improves Knowledge Injection in Language Models [54.385486006684495]
LaPaelは、初期大規模言語モデル層に入力依存ノイズを適用する潜在レベルパラフレーズ法である。
質問応答ベンチマーク実験により、LaPaelは、標準的な微調整および既存のノイズベースアプローチよりも知識注入を改善することを示した。
論文 参考訳(メタデータ) (2024-11-01T15:47:05Z) - A Comprehensive Survey of Scientific Large Language Models and Their Applications in Scientific Discovery [68.48094108571432]
大規模言語モデル(LLM)は、テキストやその他のデータ処理方法に革命をもたらした。
我々は,科学LLM間のクロスフィールドおよびクロスモーダル接続を明らかにすることで,研究ランドスケープのより総合的なビューを提供することを目指している。
論文 参考訳(メタデータ) (2024-06-16T08:03:24Z) - LLM and Simulation as Bilevel Optimizers: A New Paradigm to Advance Physical Scientific Discovery [141.39722070734737]
本稿では,大規模言語モデルの知識駆動型抽象推論能力をシミュレーションの計算力で強化することを提案する。
本稿では,2段階最適化フレームワークであるSGA(Scientific Generative Agent)を紹介する。
法発見と分子設計における枠組みの有効性を実証するための実験を行った。
論文 参考訳(メタデータ) (2024-05-16T03:04:10Z) - On "Scientific Debt" in NLP: A Case for More Rigour in Language Model
Pre-Training Research [28.450331107332925]
本稿では,言語モデルの事前学習文学における現在の研究実践を批判する。
モデル改善の異なる要因が、どのようにして価値ある新しい洞察をもたらすかを示す。
論文 参考訳(メタデータ) (2023-06-05T13:43:50Z) - A Diachronic Analysis of Paradigm Shifts in NLP Research: When, How, and
Why? [84.46288849132634]
本稿では、因果発見と推論技術を用いて、科学分野における研究トピックの進化を分析するための体系的な枠組みを提案する。
我々は3つの変数を定義し、NLPにおける研究トピックの進化の多様な側面を包含する。
我々は因果探索アルゴリズムを用いてこれらの変数間の因果関係を明らかにする。
論文 参考訳(メタデータ) (2023-05-22T11:08:00Z) - Pitfalls in Experiments with DNN4SE: An Analysis of the State of the
Practice [0.7614628596146599]
我々は、ソフトウェアエンジニアリングのプレミア会場で発行された55の論文に現れるディープニューラルネットワークに依存する技術を用いて、194の実験を行い、マッピング研究を実施します。
以上の結果から,ACMアーティファクトバッジを受信した者を含む実験の大部分が,その信頼性に疑問を呈する根本的な限界があることが判明した。
論文 参考訳(メタデータ) (2023-05-19T09:55:48Z) - GeneDisco: A Benchmark for Experimental Design in Drug Discovery [41.6425999218259]
遺伝子操作によるin vitro細胞実験は、早期の薬物発見における重要なステップである。
GeneDiscoは、薬物発見の実験的な設計のためのアクティブな学習アルゴリズムを評価するためのベンチマークスイートである。
論文 参考訳(メタデータ) (2021-10-22T16:01:39Z) - DeepZensols: Deep Natural Language Processing Framework [23.56171046067646]
この作業は、一貫した結果を再現できるフレームワークです。
自然言語処理(NLP)ディープラーニング(DL)モデルの作成、トレーニング、評価を行う手段を提供する。
論文 参考訳(メタデータ) (2021-09-08T01:16:05Z) - SDA: Improving Text Generation with Self Data Augmentation [88.24594090105899]
自動データ拡張のための自己模倣学習フェーズを組み込むことにより,標準最大確率推定(MLE)パラダイムを改善することを提案する。
既存の文レベルの拡張戦略とは異なり,本手法はより汎用的で,任意のMLEベースの訓練手順に容易に適応できる。
論文 参考訳(メタデータ) (2021-01-02T01:15:57Z) - Continual Learning for Natural Language Generation in Task-oriented
Dialog Systems [72.92029584113676]
自然言語生成(NLG)はタスク指向対話システムにおいて重要な要素である。
我々は,NLGの知識を新たなドメインや機能に段階的に拡張する"継続的学習"環境で研究する。
この目標に対する大きな課題は、破滅的な忘れことであり、継続的に訓練されたモデルは、以前に学んだ知識を忘れがちである。
論文 参考訳(メタデータ) (2020-10-02T10:32:29Z) - Optimal Learning for Sequential Decisions in Laboratory Experimentation [0.0]
このチュートリアルは、実験科学者に意思決定の科学の基礎を提供することを目的としている。
学習政策の概念を導入し,主要な政策カテゴリを概観する。
次に、知識勾配と呼ばれるポリシーを導入し、各実験からの情報の価値を最大化する。
論文 参考訳(メタデータ) (2020-04-11T14:53:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。