論文の概要: Transformer-based Methods for Recognizing Ultra Fine-grained Entities
(RUFES)
- arxiv url: http://arxiv.org/abs/2104.06048v1
- Date: Tue, 13 Apr 2021 09:23:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 13:25:00.416264
- Title: Transformer-based Methods for Recognizing Ultra Fine-grained Entities
(RUFES)
- Title(参考訳): 変圧器を用いた超微細物体認識法(RUFES)
- Authors: Emanuela Boros and Antoine Doucet
- Abstract要約: 本稿では,テキスト分析会議(tac)シリーズの評価ワークショップにおける超細粒体(rufes)トラック認識におけるラ・ロシェル大学の労働統計情報・画像・インタラクション(l3iラボラトリー)の参加について概説する。
私たちの参加は2つのニューラルベースモデルに依存しています。ひとつは、事前訓練された微調整された言語モデルと、細粒度エンティティ抽出のためのトランスフォーマーレイヤのスタックと、ドキュメント内エンティティコリファレンスのためのアウト・オブ・ボックスモデルです。
- 参考スコア(独自算出の注目度): 1.456207068672607
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper summarizes the participation of the Laboratoire Informatique,
Image et Interaction (L3i laboratory) of the University of La Rochelle in the
Recognizing Ultra Fine-grained Entities (RUFES) track within the Text Analysis
Conference (TAC) series of evaluation workshops. Our participation relies on
two neural-based models, one based on a pre-trained and fine-tuned language
model with a stack of Transformer layers for fine-grained entity extraction and
one out-of-the-box model for within-document entity coreference. We observe
that our approach has great potential in increasing the performance of
fine-grained entity recognition. Thus, the future work envisioned is to enhance
the ability of the models following additional experiments and a deeper
analysis of the results.
- Abstract(参考訳): 本稿では,テキスト分析会議(tac)シリーズの評価ワークショップにおける超細粒体(rufes)トラック認識におけるラ・ロシェル大学の労働統計情報・画像・インタラクション(l3iラボラトリー)の参加について概説する。
我々の参加は2つのニューラルベースモデルに依存している。ひとつは、トレーニング済みで微調整された言語モデルと、微細なエンティティ抽出のためのトランスフォーマー層と、ドキュメント内のエンティティコア参照のためのアウト・オブ・ザ・ボックスモデルである。
当社のアプローチは、きめ細かいエンティティ認識のパフォーマンスを向上させる上で大きな可能性を秘めています。
したがって、将来の研究は、追加の実験と結果のより深い分析に続くモデルの能力を高めることを目的としている。
関連論文リスト
- An Active Learning Framework for Inclusive Generation by Large Language Models [32.16984263644299]
大規模言語モデル(LLM)は、多様なサブ集団を表すテキストを生成する。
本稿では,知識蒸留により強化されたクラスタリングに基づくアクティブラーニングフレームワークを提案する。
2つの新しいデータセットをモデルトレーニングと組み合わせて構築し、ベースラインモデルよりも2%-10%の性能向上を示した。
論文 参考訳(メタデータ) (2024-10-17T15:09:35Z) - Integrating Contrastive Learning into a Multitask Transformer Model for
Effective Domain Adaptation [4.157415305926585]
本稿では,SERを主課題とするマルチタスクフレームワークを具現化した新しいドメイン適応手法を提案する。
提案手法は, クロスコーパスシナリオにおけるSERの最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-07T06:41:29Z) - The Languini Kitchen: Enabling Language Modelling Research at Different
Scales of Compute [66.84421705029624]
本稿では,アクセル時間で測定された等価計算に基づくモデル比較を可能にする実験的プロトコルを提案する。
私たちは、既存の学術的ベンチマークを上回り、品質、多様性、文書の長さで上回る、大規模で多様で高品質な書籍データセットを前処理します。
この研究は、GPT-2アーキテクチャから派生したフィードフォワードモデルと、10倍のスループットを持つ新しいLSTMの形式でのリカレントモデルという2つのベースラインモデルも提供する。
論文 参考訳(メタデータ) (2023-09-20T10:31:17Z) - Extensive Evaluation of Transformer-based Architectures for Adverse Drug
Events Extraction [6.78974856327994]
逆イベント(ADE)抽出は、デジタル製薬における中核的なタスクの1つである。
我々は、非公式テキストを用いたADE抽出のための19のトランスフォーマーモデルを評価する。
分析の最後には、実験データから導出可能なテイクホームメッセージのリストを同定する。
論文 参考訳(メタデータ) (2023-06-08T15:25:24Z) - UniDiff: Advancing Vision-Language Models with Generative and
Discriminative Learning [86.91893533388628]
本稿では、画像テキストコントラスト学習(ITC)、テキスト条件付き画像合成学習(IS)、相互意味整合性モデリング(RSC)を統合した統合マルチモーダルモデルUniDiffを提案する。
UniDiffはマルチモーダル理解と生成タスクの両方において汎用性を示す。
論文 参考訳(メタデータ) (2023-06-01T15:39:38Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z) - UViM: A Unified Modeling Approach for Vision with Learned Guiding Codes [91.24112204588353]
我々は、幅広いコンピュータビジョンタスクをモデル化できる統一的なアプローチであるUViMを紹介する。
以前のモデルとは対照的に、UViMは全てのタスクに対して同じ機能を持つ。
多様な3つの視覚課題に対するUViMの有効性を実証する。
論文 参考訳(メタデータ) (2022-05-20T17:47:59Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - CNRL at SemEval-2020 Task 5: Modelling Causal Reasoning in Language with
Multi-Head Self-Attention Weights based Counterfactual Detection [0.15229257192293202]
我々は、事前学習されたトランスフォーマーモデルを用いて、テキストからコンテキスト埋め込みと自己注意重みを抽出する。
これらの自己注意重みからタスク固有の特徴を抽出するために畳み込み層を用いることを示す。
論文 参考訳(メタデータ) (2020-05-31T21:02:25Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。