論文の概要: Non-neural Models Matter: A Re-evaluation of Neural Referring Expression
Generation Systems
- arxiv url: http://arxiv.org/abs/2203.08274v1
- Date: Tue, 15 Mar 2022 21:47:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-18 07:07:41.216511
- Title: Non-neural Models Matter: A Re-evaluation of Neural Referring Expression
Generation Systems
- Title(参考訳): 非神経モデル問題:神経参照表現生成システムの再評価
- Authors: Fahime Same, Guanyi Chen, Kees van Deemter
- Abstract要約: 近年、ニューラルモデルは、NLGにおけるルールベースや古典的な機械学習アプローチよりも優れています。
いくつかのタスクにおいて、よく設計された非神経アプローチは、ニューラルネットワークよりも優れたパフォーマンスを実現するため、それらを見落とすべきではない、と私たちは主張する。
- 参考スコア(独自算出の注目度): 6.651864489482537
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, neural models have often outperformed rule-based and classic
Machine Learning approaches in NLG. These classic approaches are now often
disregarded, for example when new neural models are evaluated. We argue that
they should not be overlooked, since, for some tasks, well-designed non-neural
approaches achieve better performance than neural ones. In this paper, the task
of generating referring expressions in linguistic context is used as an
example. We examined two very different English datasets (WEBNLG and WSJ), and
evaluated each algorithm using both automatic and human evaluations. Overall,
the results of these evaluations suggest that rule-based systems with simple
rule sets achieve on-par or better performance on both datasets compared to
state-of-the-art neural REG systems. In the case of the more realistic dataset,
WSJ, a machine learning-based system with well-designed linguistic features
performed best. We hope that our work can encourage researchers to consider
non-neural models in future.
- Abstract(参考訳): 近年、ニューラルネットワークはnlgのルールベースや古典的な機械学習アプローチを上回っている。
これらの古典的なアプローチは、例えば新しいニューラルモデルを評価する際にはしばしば無視される。
なぜなら、あるタスクにおいて、よく設計された非神経アプローチは、ニューラルネットワークよりも優れたパフォーマンスを達成するからです。
本稿では,言語文脈で参照表現を生成するタスクを例に挙げる。
異なる2つの英語データセット(webnlgとwsj)を調査し,各アルゴリズムを自動評価と人間評価の両方を用いて評価した。
これらの評価の結果、単純なルールセットを持つルールベースシステムは、最先端のニューラルREGシステムと比較して、両方のデータセットでオンパーまたはより良いパフォーマンスを達成することが示唆された。
より現実的なデータセットの場合、よく設計された言語機能を備えた機械学習ベースのシステムであるwsjは、最もパフォーマンスが良かった。
私たちの研究が、将来的には非神経モデルを検討するよう研究者に促すことを願っています。
関連論文リスト
- Revisiting N-Gram Models: Their Impact in Modern Neural Networks for Handwritten Text Recognition [4.059708117119894]
本研究は,言語モデル,特にn-gramモデルが,手書き認識の分野における最先端のディープラーニングアーキテクチャの性能に引き続き寄与するかどうかを論じる。
我々は、明示的なn-gram言語モデルを統合することなく、2つの著名なニューラルネットワークアーキテクチャ、PyLaiaとDANを評価した。
その結果,文字やサブワードの n-gram モデルの導入は,すべてのデータセット上での ATR モデルの性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2024-04-30T07:37:48Z) - When Newer is Not Better: Does Deep Learning Really Benefit
Recommendation From Implicit Feedback? [34.04060791716633]
最近のニューラルレコメンデーションモデルと従来のレコメンデーションモデルを、暗黙のデータからトップnのレコメンデーションで比較する。
我々の研究は、推奨されるニューラルモデルの相対的な利点とデメリットを照らす。
論文 参考訳(メタデータ) (2023-05-02T22:03:49Z) - Mitigating Data Scarcity for Large Language Models [7.259279261659759]
近年,事前学習型ニューラルネットワークモデル (PNLM) が嵐による自然言語処理の分野に進出している。
データ不足は、医学などの専門分野や、AI研究によって調査されていない低リソース言語でよく見られる。
この論文では、データ強化とニューラルアンサンブル学習技術を用いて、データの不足を軽減することに焦点を当てる。
論文 参考訳(メタデータ) (2023-02-03T15:17:53Z) - Neural-Symbolic Recursive Machine for Systematic Generalization [113.22455566135757]
我々は、基底記号システム(GSS)のコアとなるニューラル・シンボリック再帰機械(NSR)を紹介する。
NSRは神経知覚、構文解析、意味推論を統合している。
我々はNSRの有効性を,系統的一般化能力の探索を目的とした4つの挑戦的ベンチマークで評価した。
論文 参考訳(メタデータ) (2022-10-04T13:27:38Z) - Dependency-based Mixture Language Models [53.152011258252315]
依存性に基づく混合言語モデルを紹介する。
より詳しくは、依存関係モデリングの新たな目的により、まずニューラルネットワークモデルを訓練する。
次に、前回の依存性モデリング確率分布と自己意図を混合することにより、次の確率を定式化する。
論文 参考訳(メタデータ) (2022-03-19T06:28:30Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z) - Learning from Mistakes: Combining Ontologies via Self-Training for
Dialogue Generation [6.221019624345408]
タスク指向対話のための自然言語ジェネレータ(NLG)は通常、意味表現(MR)を入力とする。
新たにより大きく結合したオントロジーを作成し、NLGをトレーニングして、それをカバーする発話を生成します。
例えば、あるデータセットが家族にやさしい情報や評価情報があり、もう1つのデータセットが装飾とサービスの属性を持っている場合、私たちの目標は、家族にやさしい、評価、装飾、サービスの価値を実現する発話を生成できるオントロジーの組み合わせのためのNLGです。
論文 参考訳(メタデータ) (2020-09-30T23:54:38Z) - DyNODE: Neural Ordinary Differential Equations for Dynamics Modeling in
Continuous Control [0.0]
本稿では,ニューラル常微分方程式の枠組みに制御を組み込むことにより,システムの基盤となる力学を捉える新しい手法を提案する。
以上の結果から,アクター批判強化学習アルゴリズムと組み合わせた単純なDyNODEアーキテクチャが,標準ニューラルネットワークより優れていることが示唆された。
論文 参考訳(メタデータ) (2020-09-09T12:56:58Z) - Learning Compositional Rules via Neural Program Synthesis [67.62112086708859]
少数の例からルールシステム全体を学習するニューロシンボリックモデルを提案する。
入力からの出力を直接予測する代わりに、前述した例の集合を規定する規則の明示的な体系を誘導するようにモデルを訓練する。
論文 参考訳(メタデータ) (2020-03-12T01:06:48Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。