論文の概要: The Million-Label NER: Breaking Scale Barriers with GLiNER bi-encoder
- arxiv url: http://arxiv.org/abs/2602.18487v1
- Date: Wed, 11 Feb 2026 10:55:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 07:21:25.615645
- Title: The Million-Label NER: Breaking Scale Barriers with GLiNER bi-encoder
- Title(参考訳): 数百万ラベルのNER:GLiNERバイエンコーダでスケールバリアを壊す
- Authors: Ihor Stepanov, Mykhailo Shtopko, Dmytro Vodianytskyi, Oleksandr Lukashov,
- Abstract要約: 本稿では,名前付きエンティティ認識(NER)のための新しいアーキテクチャであるGLiNER-bi-Encoderを紹介する。
提案するバイエンコーダの設計は,プロセスを専用ラベルエンコーダとコンテキストエンコーダに分離し,コンテキストウィンドウのボトルネックを効果的に除去する。
実験結果は最先端のゼロショット性能を示し、CrossNERベンチマークで61.5%のMicro-F1を達成した。
- 参考スコア(独自算出の注目度): 13.33509460245165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces GLiNER-bi-Encoder, a novel architecture for Named Entity Recognition (NER) that harmonizes zero-shot flexibility with industrial-scale efficiency. While the original GLiNER framework offers strong generalization, its joint-encoding approach suffers from quadratic complexity as the number of entity labels increases. Our proposed bi-encoder design decouples the process into a dedicated label encoder and a context encoder, effectively removing the context-window bottleneck. This architecture enables the simultaneous recognition of thousands, and potentially millions, of entity types with minimal overhead. Experimental results demonstrate state-of-the-art zero-shot performance, achieving 61.5 percent Micro-F1 on the CrossNER benchmark. Crucially, by leveraging pre-computed label embeddings, GLiNER-bi-Encoder achieves up to a 130 times throughput improvement at 1024 labels compared to its uni-encoder predecessors. Furthermore, we introduce GLiNKER, a modular framework that leverages this architecture for high-performance entity linking across massive knowledge bases such as Wikidata.
- Abstract(参考訳): 本稿では、ゼロショットフレキシビリティと産業規模の効率を調和させる名前付きエンティティ認識(NER)の新しいアーキテクチャであるGLiNER-bi-Encoderを紹介する。
オリジナルのGLiNERフレームワークは強力な一般化を提供するが、その共同符号化アプローチはエンティティラベルの数が増加するにつれて2次複雑さに悩まされる。
提案するバイエンコーダの設計は,プロセスを専用ラベルエンコーダとコンテキストエンコーダに分離し,コンテキストウィンドウのボトルネックを効果的に除去する。
このアーキテクチャは、最小限のオーバーヘッドで数千、潜在的に数百万のエンティティタイプの同時認識を可能にする。
実験結果は最先端のゼロショット性能を示し、CrossNERベンチマークで61.5%のMicro-F1を達成した。
重要なことに、GLiNER-bi-Encoderは事前に計算されたラベル埋め込みを利用することで、1024ラベルの最大130倍のスループット向上を実現している。
さらに,GLiNKERは,ウィキデータなどの膨大な知識ベースをリンクする高性能なエンティティのために,このアーキテクチャを活用するモジュラーフレームワークである。
関連論文リスト
- GLiNER2: An Efficient Multi-Task Information Extraction System with Schema-Driven Interface [0.873811641236639]
我々は、名前付きエンティティ認識、テキスト分類、階層的構造化データ抽出をサポートするために、元のGLiNERアーキテクチャを強化する統一フレームワークであるGLiNER2を提案する。
実験では,抽出タスクと分類タスクの競合性能を実証し,デプロイメントアクセシビリティを大幅に改善した。
論文 参考訳(メタデータ) (2025-07-24T16:11:14Z) - GNN-Coder: Boosting Semantic Code Retrieval with Combined GNNs and Transformer [15.991615273248804]
抽象構文木(AST)を利用するグラフニューラルネットワーク(GNN)に基づく新しいフレームワークであるGNN-Coderを紹介する。
GNN-Coderは、CSNデータセットのMRRが1%-10%改善され、CosQAデータセットのゼロショットパフォーマンスが20%向上するなど、検索パフォーマンスを著しく向上させる。
論文 参考訳(メタデータ) (2025-02-21T04:29:53Z) - Using Large Language Model for End-to-End Chinese ASR and NER [35.876792804001646]
本稿では,クロスアテンションによる音声特徴を組み込んだエンコーダ・デコーダアーキテクチャを提案する。
本稿では,中国語の自動音声認識(ASR)と名前認識(NER)の2つの手法を比較した。
実験の結果,エンコーダ-デコーダアーキテクチャは短いコンテキストでデコーダのみのアーキテクチャよりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-21T03:15:05Z) - SegViTv2: Exploring Efficient and Continual Semantic Segmentation with
Plain Vision Transformers [76.13755422671822]
本稿では,エンコーダ・デコーダ・フレームワークを用いた意味的セグメンテーションのためのプレーンビジョン変換器(ViT)の能力について検討する。
Intention-to-Mask(atm)モジュールを導入し、平易なViTに有効な軽量デコーダを設計する。
我々のデコーダは、様々なViTバックボーンを使用して人気のあるデコーダUPerNetより優れ、計算コストの5%程度しか消費しない。
論文 参考訳(メタデータ) (2023-06-09T22:29:56Z) - Optimizing Bi-Encoder for Named Entity Recognition via Contrastive
Learning [80.36076044023581]
名前付きエンティティ認識(NER)のための効率的なバイエンコーダフレームワークを提案する。
我々はNERを、エンティティ参照のベクトル表現とその型との類似性を最大化する計量学習問題とみなす。
NERのこのバイエンコーダの定式化における大きな課題は、エンティティの言及から非エンゲージスを分離することにある。
論文 参考訳(メタデータ) (2022-08-30T23:19:04Z) - Attention guided global enhancement and local refinement network for
semantic segmentation [5.881350024099048]
エンコーダ・デコーダアーキテクチャを用いて,軽量なセマンティックセマンティックセマンティクスネットワークを開発した。
高レベル特徴マップからグローバル情報を集約するグローバルエンハンスメント手法を提案する。
ローカルリファインメントモジュールは、デコーダ機能をセマンティックガイダンスとして利用することによって開発される。
この2つの手法はContext Fusion Blockに統合され、それに基づいてAttention Guided Global enhancement and Local refinement Network (AGLN) が精巧に設計されている。
論文 参考訳(メタデータ) (2022-04-09T02:32:24Z) - Label Semantics for Few Shot Named Entity Recognition [68.01364012546402]
名前付きエンティティ認識におけるショットラーニングの問題について検討する。
我々は,ラベル名中の意味情報を,モデルに付加的な信号を与え,よりリッチな事前情報を与える手段として活用する。
本モデルは,第1エンコーダによって計算された名前付きエンティティの表現と,第2エンコーダによって計算されたラベル表現とを一致させることを学習する。
論文 参考訳(メタデータ) (2022-03-16T23:21:05Z) - Rethinking Semantic Segmentation from a Sequence-to-Sequence Perspective
with Transformers [149.78470371525754]
セマンティックセグメンテーションをシーケンスからシーケンスへの予測タスクとして扱う。
具体的には、イメージをパッチのシーケンスとしてエンコードするために純粋なトランスをデプロイします。
トランスのすべての層でモデル化されたグローバルコンテキストにより、このエンコーダは、SETR(SEgmentation TRansformer)と呼ばれる強力なセグメンテーションモデルを提供するための単純なデコーダと組み合わせることができる。
SETRはADE20K(50.28% mIoU)、Pascal Context(55.83% mIoU)、およびCityscapesの競争力のある結果に関する最新技術を達成している。
論文 参考訳(メタデータ) (2020-12-31T18:55:57Z) - GMM-Based Generative Adversarial Encoder Learning [39.57350884615545]
GANのジェネレーション機能とエンコーダを組み合わせたシンプルなアーキテクチャのセットアップを紹介します。
GMMを介してエンコーダ潜時空間の出力をモデル化し、この潜時空間を用いた良好なクラスタリングとGANによる画像生成の改善の両方をもたらす。
論文 参考訳(メタデータ) (2020-12-08T16:12:16Z) - EfficientFCN: Holistically-guided Decoding for Semantic Segmentation [49.27021844132522]
最先端セマンティックセマンティックセグメンテーションアルゴリズムは主に拡張されたFully Convolutional Networks (DilatedFCN)に基づいている
本稿では,拡張畳み込みのないイメージネット事前学習ネットワークをバックボーンとする,効率的なFCNを提案する。
このようなフレームワークは、計算コストの1/3しか持たない最先端の手法に比べて、同等またはそれ以上の性能を達成する。
論文 参考訳(メタデータ) (2020-08-24T14:48:23Z) - Bi-Decoder Augmented Network for Neural Machine Translation [108.3931242633331]
本稿では,ニューラルマシン翻訳タスクのためのBi-Decoder Augmented Network (BiDAN)を提案する。
各デコーダは入力されたテキストの表現を対応する言語に変換するため、2つの目的語と共同でトレーニングすることで、共有エンコーダは言語に依存しない意味空間を生成することができる。
論文 参考訳(メタデータ) (2020-01-14T02:05:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。