論文の概要: An Investigation of Potential Function Designs for Neural CRF
- arxiv url: http://arxiv.org/abs/2011.05604v1
- Date: Wed, 11 Nov 2020 07:32:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 23:06:40.032393
- Title: An Investigation of Potential Function Designs for Neural CRF
- Title(参考訳): ニューラルCRFのポテンシャル関数設計法の検討
- Authors: Zechuan Hu, Yong Jiang, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei
Huang, Kewei Tu
- Abstract要約: 本稿では,ニューラルCRFモデルに対する一連の表現力のあるポテンシャル関数について検討する。
実験により, 隣接する2つのラベルと隣接する2つの単語のベクトル表現に基づく分解された二次ポテンシャル関数が, 常に最高の性能を達成することを示す。
- 参考スコア(独自算出の注目度): 75.79555356970344
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The neural linear-chain CRF model is one of the most widely-used approach to
sequence labeling. In this paper, we investigate a series of increasingly
expressive potential functions for neural CRF models, which not only integrate
the emission and transition functions, but also explicitly take the
representations of the contextual words as input. Our extensive experiments
show that the decomposed quadrilinear potential function based on the vector
representations of two neighboring labels and two neighboring words
consistently achieves the best performance.
- Abstract(参考訳): ニューラルネットワークの線形鎖CRFモデルは、シークエンスラベリングにおいて最も広く使われているアプローチの1つである。
本稿では, ニューラルCRFモデルにおいて, 出力関数と遷移関数を統合するだけでなく, 文脈単語の表現を入力として明示的に取り込む一連の表現的ポテンシャル関数について検討する。
広範な実験により、2つの隣接ラベルと2つの隣接ワードのベクトル表現に基づく分解された二次ポテンシャル関数は、一貫して最高の性能が得られることを示した。
関連論文リスト
- Interpretable Language Modeling via Induction-head Ngram Models [74.26720927767398]
誘導ヘッドngramモデル(Induction-Gram)を提案する。
この誘導ヘッドは、カスタムのニューラル類似度メトリックを使用して、モデルの入力コンテキストを効率的に検索し、潜在的に次の単語補完を行う。
実験により,本手法はベースラインの解釈可能なモデルよりも,単語の次単語予測を大幅に改善することが示された。
論文 参考訳(メタデータ) (2024-10-31T12:33:26Z) - Feature Mapping in Physics-Informed Neural Networks (PINNs) [1.9819034119774483]
本研究では, Conjugate Kernel と Neural Tangent Kernel を限定した特徴マッピング層を用いた PINN の訓練力学について検討する。
より優れた代替として,条件付き正定値ラジアル基底関数を提案する。
論文 参考訳(メタデータ) (2024-02-10T13:51:09Z) - Neural-Hidden-CRF: A Robust Weakly-Supervised Sequence Labeler [15.603945748109743]
本稿では,ニューラルネットワークを用いた非方向性グラフモデルであるNeural-Hidden-CRFを提案する。
確率的非指向グラフ理論の傘の下で、隠れたCRF層に埋め込まれたニューラルハイデンCRFは、単語列、潜在接地真理列、弱いラベル列の変数をモデル化する。
論文 参考訳(メタデータ) (2023-09-10T17:13:25Z) - ENN: A Neural Network with DCT Adaptive Activation Functions [2.2713084727838115]
離散コサイン変換(DCT)を用いて非線形活性化関数をモデル化する新しいモデルであるExpressive Neural Network(ENN)を提案する。
このパラメータ化は、トレーニング可能なパラメータの数を低く保ち、勾配ベースのスキームに適合し、異なる学習タスクに適応する。
ENNのパフォーマンスは、いくつかのシナリオにおいて40%以上の精度のギャップを提供する、アートベンチマークの状態を上回ります。
論文 参考訳(メタデータ) (2023-07-02T21:46:30Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - First Power Linear Unit with Sign [0.0]
バイオニクスの直感的な意味を持ちながら、一般的な逆操作によって啓蒙される。
PFPLUSと呼ばれるより一般化された型に表される関数を2つのパラメータで拡張する。
論文 参考訳(メタデータ) (2021-11-29T06:47:58Z) - Going Beyond Linear RL: Sample Efficient Neural Function Approximation [76.57464214864756]
2層ニューラルネットワークによる関数近似について検討する。
この結果は線形(あるいは可溶性次元)法で達成できることを大幅に改善する。
論文 参考訳(メタデータ) (2021-07-14T03:03:56Z) - High-dimensional Functional Graphical Model Structure Learning via
Neighborhood Selection Approach [15.334392442475115]
機能的グラフィカルモデルの構造を推定するための近傍選択手法を提案する。
したがって、関数が無限次元であるときに存在しないような、明確に定義された精度作用素の必要性を回避することができる。
論文 参考訳(メタデータ) (2021-05-06T07:38:50Z) - Probabilistic Graph Attention Network with Conditional Kernels for
Pixel-Wise Prediction [158.88345945211185]
本稿では,画素レベルの予測を基本的側面,すなわち,技術の現状を推し進める新たなアプローチを提案する。
構造化されたマルチスケール機能学習と融合。
本論文では,マルチスケール表現を原理的に学習・融合するための新しいアテンテンションゲート条件ランダムフィールド(AG-CRFs)モデルに基づく確率的グラフアテンションネットワーク構造を提案する。
論文 参考訳(メタデータ) (2021-01-08T04:14:29Z) - UNIPoint: Universally Approximating Point Processes Intensities [125.08205865536577]
学習可能な関数のクラスが任意の有効な強度関数を普遍的に近似できることを示す。
ニューラルポイントプロセスモデルであるUNIPointを実装し,各イベントの基底関数の和をパラメータ化するために,リカレントニューラルネットワークを用いた。
論文 参考訳(メタデータ) (2020-07-28T09:31:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。