論文の概要: Paradigm Completion for Derivational Morphology
- arxiv url: http://arxiv.org/abs/1708.09151v2
- Date: Fri, 9 Aug 2024 06:44:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-12 21:17:20.582392
- Title: Paradigm Completion for Derivational Morphology
- Title(参考訳): 派生形態学のためのパラダイムコンプリート
- Authors: Ryan Cotterell, Ekaterina Vylomova, Huda Khayrallah, Christo Kirov, David Yarowsky,
- Abstract要約: 派生形態学はNLPでは見落とされた問題である。
本稿では、帰納的パラダイム補完の課題を、帰納的パラダイム補完の並列化として紹介する。
我々は、最先端のニューラルモデルが様々な派生パターンを学習でき、非神経ベースラインを16.4%上回っていることを示す。
- 参考スコア(独自算出の注目度): 48.405826282007
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The generation of complex derived word forms has been an overlooked problem in NLP; we fill this gap by applying neural sequence-to-sequence models to the task. We overview the theoretical motivation for a paradigmatic treatment of derivational morphology, and introduce the task of derivational paradigm completion as a parallel to inflectional paradigm completion. State-of-the-art neural models, adapted from the inflection task, are able to learn a range of derivation patterns, and outperform a non-neural baseline by 16.4%. However, due to semantic, historical, and lexical considerations involved in derivational morphology, future work will be needed to achieve performance parity with inflection-generating systems.
- Abstract(参考訳): 複雑な派生語形式の生成は、NLPでは見過ごされている問題であり、タスクにニューラルシーケンス・ツー・シーケンスモデルを適用することで、このギャップを埋める。
導出的形態学のパラダイム的処理の理論的動機を概説し、導出的パラダイム完備化の課題を帰納的パラダイム完備化の並列化として紹介する。
インフレクションタスクから適応した最先端のニューラルモデルは、様々な派生パターンを学習することができ、非神経ベースラインを16.4%上回る。
しかし、導出形態学に関わる意味論的、歴史的、語彙的考察により、屈折発生システムと性能の同等性を達成するためには、今後の研究が必要である。
関連論文リスト
- Relative Representations: Topological and Geometric Perspectives [53.88896255693922]
相対表現はゼロショットモデルの縫合に対する確立されたアプローチである。
相対変換において正規化手順を導入し、非等方的再スケーリングや置換に不変となる。
第二に、クラス内のクラスタリングを促進するトポロジカル正規化損失である、微調整された相対表現におけるトポロジカルデシフィケーションの展開を提案する。
論文 参考訳(メタデータ) (2024-09-17T08:09:22Z) - A Percolation Model of Emergence: Analyzing Transformers Trained on a Formal Language [15.929767234646631]
データ、サイズ、計算量の増加は、ニューラルネットワークによる特定の能力の急激な学習につながる可能性がある。
エマージェンス(emergence)とは、しばしば「エマージェンス(emergence)」と呼ばれる現象である。
論文 参考訳(メタデータ) (2024-08-22T17:44:22Z) - Contextual modulation of language comprehension in a dynamic neural model of lexical meaning [0.0]
本稿では、英語の語彙項目「have」をテストケースとして用いて、その多義性に焦点をあてて、モデルのアーキテクチャと振舞いを実証する。
結果は、単語の多くの関連する意味が、メタスタブルなニューラルアクティベーション状態である、という、語彙的多義性に関する新しい視点を支持する。
論文 参考訳(メタデータ) (2024-07-19T23:28:55Z) - Recent advancements in computational morphology : A comprehensive survey [0.11606731918609076]
計算形態学は単語レベルで言語処理を扱う。
形態的境界検出、補間、形態的特徴タグ付け、形態的再考等。
論文 参考訳(メタデータ) (2024-06-08T10:07:33Z) - On the Trade-off Between Efficiency and Precision of Neural Abstraction [62.046646433536104]
ニューラル抽象化は、最近、複雑な非線形力学モデルの形式近似として導入されている。
我々は形式的帰納的合成法を用いて、これらのセマンティクスを用いた動的モデルをもたらすニューラル抽象化を生成する。
論文 参考訳(メタデータ) (2023-07-28T13:22:32Z) - Latent Traversals in Generative Models as Potential Flows [113.4232528843775]
我々は,学習された動的ポテンシャルランドスケープを持つ潜在構造をモデル化することを提案する。
物理、最適輸送、神経科学にインスパイアされたこれらの潜在的景観は、物理的に現実的な偏微分方程式として学習される。
本手法は,最先端のベースラインよりも定性的かつ定量的に歪んだ軌跡を実現する。
論文 参考訳(メタデータ) (2023-04-25T15:53:45Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - On Long-Tailed Phenomena in Neural Machine Translation [50.65273145888896]
最先端のニューラルネットワーク翻訳(NMT)モデルは、低周波トークンの生成に苦労する。
条件付きテキスト生成における構造的依存関係にモデルトレーニングを適応させるために,新たな損失関数である反焦点損失を提案する。
提案手法は,複数の機械翻訳(MT)データセットに対して有効であり,クロスエントロピーよりも顕著に向上することを示す。
論文 参考訳(メタデータ) (2020-10-10T07:00:57Z) - Generalisation error in learning with random features and the hidden
manifold model [23.71637173968353]
合成データセットの一般線形回帰と分類について検討した。
我々は,高次元構造を考察し,統計物理学からのレプリカ法を用いる。
閾値をピークとしたロジスティック回帰のためのいわゆる二重降下挙動を得る方法を示す。
隠れ多様体モデルにより生成されたデータにおいて相関関係が果たす役割について論じる。
論文 参考訳(メタデータ) (2020-02-21T14:49:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。