論文の概要: What can Neural Referential Form Selectors Learn?
- arxiv url: http://arxiv.org/abs/2108.06806v1
- Date: Sun, 15 Aug 2021 20:09:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-18 01:42:49.443411
- Title: What can Neural Referential Form Selectors Learn?
- Title(参考訳): ニューラルリファレンシャルフォームセレクタは何を学べるか?
- Authors: Guanyi Chen, Fahime Same, Kees van Deemter
- Abstract要約: その結果、定義された全ての特徴がある程度学習されたことが明らかとなった。
指示的地位と統語的地位に関する調査課題が最も高いパフォーマンスを示した。
最も低い性能は、文章レベルを超えた談話構造特性を予測するために設計された探索モデルによって達成された。
- 参考スコア(独自算出の注目度): 1.875671091511064
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite achieving encouraging results, neural Referring Expression Generation
models are often thought to lack transparency. We probed neural Referential
Form Selection (RFS) models to find out to what extent the linguistic features
influencing the RE form are learnt and captured by state-of-the-art RFS models.
The results of 8 probing tasks show that all the defined features were learnt
to some extent. The probing tasks pertaining to referential status and
syntactic position exhibited the highest performance. The lowest performance
was achieved by the probing models designed to predict discourse structure
properties beyond the sentence level.
- Abstract(参考訳): 奨励的な結果を得たにもかかわらず、神経参照表現生成モデルは、しばしば透明性を欠いていると考えられている。
我々は、Reformに影響を与える言語的特徴が、最先端のRFSモデルによってどの程度学習され、キャプチャされるかを調べるために、ニューラルネットワーク参照形式選択(RFS)モデルを探索した。
8つの調査タスクの結果、定義されたすべての機能はある程度学習されたことを示している。
指示的地位と統語的地位に関する調査課題が最も高いパフォーマンスを示した。
最も低い性能は、文レベルを超えて談話の構造特性を予測するように設計されたプロビングモデルによって達成された。
関連論文リスト
- What Do Speech Foundation Models Not Learn About Speech? [30.524282767961463]
我々はWhisper, Seamless, Wav2Vec, HuBERT, Qwen2-Audioなどの音声基礎モデルを分析する。
まず、ゼロショット設定でモデルを評価し、次にこれらのモデルから抽出した層ワイドな特徴を微調整する。
この結果から,モデルの一般化能力,レイヤワイド表現の特徴,下流タスク適応に必要な変換度などの知見が得られた。
論文 参考訳(メタデータ) (2024-10-16T18:34:07Z) - SLCNN: Sentence-Level Convolutional Neural Network for Text
Classification [0.0]
畳み込みニューラルネットワーク(CNN)は,テキスト分類のタスクにおいて顕著な成功を収めている。
CNNを用いたテキスト分類のための新しいベースラインモデルが研究されている。
結果から,提案したモデルの性能は,特に長いドキュメントにおいて向上していることがわかった。
論文 参考訳(メタデータ) (2023-01-27T13:16:02Z) - On the Compositional Generalization Gap of In-Context Learning [73.09193595292233]
In-distriion (ID) と Out-of-distriion (OOD) の相違について考察する。
我々は,3つの意味解析データセットを用いて,OPT,BLOOM,CodeGen,Codexの4つのモデルファミリを評価する。
論文 参考訳(メタデータ) (2022-11-15T19:56:37Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - Modeling morphology with Linear Discriminative Learning: considerations
and design choices [1.3535770763481905]
本研究では,線形識別学習を用いて屈折形態をモデル化する際に生じる一連の方法論的問題に対処する。
形態の表現と意味がモデルパフォーマンスに与える影響について、どのように判断したかを説明する。
本稿では,文脈における単語の学習を近似するために,モデルをどのように設定するかについて議論する。
論文 参考訳(メタデータ) (2021-06-15T07:37:52Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Recoding latent sentence representations -- Dynamic gradient-based
activation modification in RNNs [0.0]
RNNでは、サブオプティマティックな方法で情報をエンコーディングすることは、シーケンスの後の要素に基づいて表現の質に影響を与える可能性がある。
勾配に基づく補正機構を用いて,標準RNNへの拡張を提案する。
言語モデリングの文脈で異なる実験を行い、そのようなメカニズムを使うことによる影響を詳細に調べる。
論文 参考訳(メタデータ) (2021-01-03T17:54:17Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - Learning from Context or Names? An Empirical Study on Neural Relation
Extraction [112.06614505580501]
テキストにおける2つの主要な情報ソースの効果について検討する:テキストコンテキストとエンティティ参照(名前)
本稿では,関係抽出のための実体型コントラスト事前学習フレームワーク(RE)を提案する。
我々のフレームワークは、異なるREシナリオにおけるニューラルモデルの有効性と堅牢性を改善することができる。
論文 参考訳(メタデータ) (2020-10-05T11:21:59Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。