論文の概要: FLAT: Chinese NER Using Flat-Lattice Transformer
- arxiv url: http://arxiv.org/abs/2004.11795v2
- Date: Sat, 23 May 2020 05:05:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 03:34:09.163743
- Title: FLAT: Chinese NER Using Flat-Lattice Transformer
- Title(参考訳): FLAT:Flat-Lattice Transformerを用いた中国のNER
- Authors: Xiaonan Li, Hang Yan, Xipeng Qiu, Xuanjing Huang
- Abstract要約: 中国語NERのためのFLAT: Flat-Lattice Transformerを提案する。
各スパンは、文字または潜在単語とその元の格子における位置に対応する。
4つのデータセットの実験では、FLATは他のレキシコンベースのモデルよりも性能と効率が優れていた。
- 参考スコア(独自算出の注目度): 96.21662790857194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, the character-word lattice structure has been proved to be
effective for Chinese named entity recognition (NER) by incorporating the word
information. However, since the lattice structure is complex and dynamic, most
existing lattice-based models are hard to fully utilize the parallel
computation of GPUs and usually have a low inference-speed. In this paper, we
propose FLAT: Flat-LAttice Transformer for Chinese NER, which converts the
lattice structure into a flat structure consisting of spans. Each span
corresponds to a character or latent word and its position in the original
lattice. With the power of Transformer and well-designed position encoding,
FLAT can fully leverage the lattice information and has an excellent
parallelization ability. Experiments on four datasets show FLAT outperforms
other lexicon-based models in performance and efficiency.
- Abstract(参考訳): 近年,中国語名空間認識(ner)において,単語情報を取り込むことで文字文字格子構造が有効であることが証明されている。
しかし、格子構造は複雑で動的であるため、既存の格子モデルのほとんどはGPUの並列計算を完全に活用することは困難であり、通常は推論速度は低い。
本稿では,格子構造をスパンからなる平坦な構造に変換する,中国語ner用フラットラティストランスを提案する。
各スパンは、文字または潜在単語とその元の格子における位置に対応する。
Transformerのパワーとよく設計された位置符号化により、FLATは格子情報を完全に活用でき、優れた並列化能力を有する。
4つのデータセットの実験では、FLATは他のレキシコンベースのモデルよりも性能と効率が優れていた。
関連論文リスト
- Transformers meet Neural Algorithmic Reasoners [16.5785372289558]
我々は、トランスフォーマー言語理解とグラフニューラルネットワーク(GNN)に基づくニューラルネットワーク推論(NAR)の堅牢性を組み合わせた新しいアプローチを提案する。
CLRS-30ベンチマークのテキストベースバージョンであるCLRS-Text上で得られたTransNARモデルを評価し,アルゴリズム推論のためのTransformerのみのモデルよりも大幅に向上したことを示す。
論文 参考訳(メタデータ) (2024-06-13T16:42:06Z) - How Do Transformers Learn In-Context Beyond Simple Functions? A Case
Study on Learning with Representations [98.7450564309923]
本稿では、より複雑なシナリオにおける文脈内学習(ICL)の理解を、表現を用いた学習で研究する。
合成文内学習問題を合成構造を用いて構築し、ラベルは複雑なが固定された表現関数によって入力に依存する。
理論的には、そのようなアルゴリズムを軽度な深さと大きさでほぼ実装するトランスフォーマーの存在を示す。
論文 参考訳(メタデータ) (2023-10-16T17:40:49Z) - Learning a Fourier Transform for Linear Relative Positional Encodings in Transformers [71.32827362323205]
我々はLearner-Transformer (Learners)と呼ばれる線形変換器の新しいクラスを提案する。
様々な相対的位置エンコーディング機構(RPE)を組み込んでいる。
これらには、シーケンシャルデータに適用される正規の RPE 技術や、高次元ユークリッド空間に埋め込まれた幾何学的データを操作する新しい RPE などが含まれる。
論文 参考訳(メタデータ) (2023-02-03T18:57:17Z) - Structural Biases for Improving Transformers on Translation into
Morphologically Rich Languages [120.74406230847904]
TP-Transformerは従来のTransformerアーキテクチャを拡張し、構造を表現するコンポーネントを追加する。
第2の方法は、形態的トークン化でデータをセグメント化することで、データレベルで構造を付与する。
これらの2つのアプローチのそれぞれが、ネットワークがより良いパフォーマンスを達成することを可能にすることは分かっていますが、この改善はデータセットのサイズに依存します。
論文 参考訳(メタデータ) (2022-08-11T22:42:24Z) - Charformer: Fast Character Transformers via Gradient-based Subword
Tokenization [50.16128796194463]
モデルの一部としてサブワードトークン化をエンドツーエンドに学習する新しいモデル帰納バイアスを提案する。
文字から潜在単語表現を自動的に学習する,ソフトグラデーションベースのサブワードトークンモジュール(GBST)を導入する。
また、GBSTを統合し、バイトレベルで動作する深層トランスフォーマーモデルであるCharformerを紹介する。
論文 参考訳(メタデータ) (2021-06-23T22:24:14Z) - GroupBERT: Enhanced Transformer Architecture with Efficient Grouped
Structures [57.46093180685175]
トランスフォーマー層の構造を改良し,より効率的なアーキテクチャを実現する。
自己認識モジュールを補完する畳み込みモジュールを追加し、局所的およびグローバルな相互作用の学習を分離する。
得られたアーキテクチャを言語表現学習に適用し、異なるスケールのBERTモデルと比較して優れた性能を示す。
論文 参考訳(メタデータ) (2021-06-10T15:41:53Z) - Rethinking Graph Transformers with Spectral Attention [13.068288784805901]
我々は、学習された位置符号化(LPE)を用いて、与えられたグラフ内の各ノードの位置を学習するtextitSpectral Attention Network$(SAN)を提示する。
ラプラシアンの完全なスペクトルを利用することで、我々のモデルは理論上グラフの区別に強力であり、類似のサブ構造を共鳴からよりよく検出することができる。
我々のモデルは最先端のGNNよりも同等かそれ以上の性能を発揮し、あらゆる注目ベースモデルよりも広いマージンで性能を向上する。
論文 参考訳(メタデータ) (2021-06-07T18:11:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。