論文の概要: F-COREF: Fast, Accurate and Easy to Use Coreference Resolution
- arxiv url: http://arxiv.org/abs/2209.04280v2
- Date: Mon, 12 Sep 2022 09:24:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 10:36:15.743099
- Title: F-COREF: Fast, Accurate and Easy to Use Coreference Resolution
- Title(参考訳): F-COREF: 高速で高精度で容易に参照解決
- Authors: Shon Otmazgin, Arie Cattan, Yoav Goldberg
- Abstract要約: 我々は、高速で正確で使い易い英語のコア参照解決のためのpythonパッケージであるfastcorefを紹介した。
モデルにより、V100 GPU上で2.8K OntoNotes文書を25秒で処理できる。
- 参考スコア(独自算出の注目度): 48.05751101475403
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce fastcoref, a python package for fast, accurate, and easy-to-use
English coreference resolution. The package is pip-installable, and allows two
modes: an accurate mode based on the LingMess architecture, providing
state-of-the-art coreference accuracy, and a substantially faster model,
F-coref, which is the focus of this work. \model{} allows to process 2.8K
OntoNotes documents in 25 seconds on a V100 GPU (compared to 6 minutes for the
LingMess model, and to 12 minutes of the popular AllenNLP coreference model)
with only a modest drop in accuracy. The fast speed is achieved through a
combination of distillation of a compact model from the LingMess model, and an
efficient batching implementation using a technique we call leftover batching.
https://github.com/shon-otmazgin/fastcoref
- Abstract(参考訳): fastcorefは、高速で正確で使いやすい英語のコリファレンス解決のためのpythonパッケージです。
パッケージはpipインストール可能で、2つのモードがある。lingmessアーキテクチャに基づく正確なモード、最先端のコリファレンス精度を提供する、そして、この作業の焦点である実質的に高速なモデルであるf-corefである。
モデル{}は、V100 GPU上で2.8K OntoNotesの文書を25秒で処理できる(LingMessモデルでは6分、一般的なAllenNLPコア参照モデルでは12分)。
この高速化はLingMessモデルからのコンパクトモデルの蒸留と,余剰バッチと呼ばれる手法による効率的なバッチ化との組み合わせによって実現される。
https://github.com/shon-otmazgin/fastcoref
関連論文リスト
- RTMO: Towards High-Performance One-Stage Real-Time Multi-Person Pose Estimation [46.659592045271125]
RTMOは座標分類をシームレスに統合する一段階のポーズ推定フレームワークである。
高速を維持しながらトップダウン手法に匹敵する精度を達成する。
私たちの最大のモデルであるRTMO-lは、COCO val 2017で74.8%AP、1つのV100 GPUで141FPSを実現しています。
論文 参考訳(メタデータ) (2023-12-12T18:55:29Z) - Implicit Temporal Modeling with Learnable Alignment for Video
Recognition [95.82093301212964]
本稿では,極めて高い性能を達成しつつ,時間的モデリングの労力を最小限に抑える新しいImplicit Learnable Alignment(ILA)法を提案する。
ILAはKineetics-400の88.7%で、Swin-LやViViT-Hに比べてFLOPははるかに少ない。
論文 参考訳(メタデータ) (2023-04-20T17:11:01Z) - TadML: A fast temporal action detection with Mechanics-MLP [0.5148939336441986]
時間的行動検出(TAD)はビデオ理解において不可欠だが難しい課題である。
現在のモデルでは、TADタスクにRGBとOpto-Flowストリームが採用されている。
本稿では,RGBストリームのみを用いたワンステージアンカーフリー時間的ローカライズ手法を提案し,新しいニュートン力学-MLPアーキテクチャを構築した。
論文 参考訳(メタデータ) (2022-06-07T04:07:48Z) - Block Pruning For Faster Transformers [89.70392810063247]
小型モデルと高速モデルの両方を対象としたブロックプルーニング手法を提案する。
このアプローチは、アテンションヘッドのような基盤となるモデルの完全なコンポーネントを抽出することを学ぶ。
論文 参考訳(メタデータ) (2021-09-10T12:46:32Z) - A Compression-Compilation Framework for On-mobile Real-time BERT
Applications [36.54139770775837]
トランスフォーマーベースのディープラーニングモデルは、多くの自然言語処理(NLP)タスクにおいて高い精度を証明している。
本稿では,モバイルデバイスのリソースおよびリアルタイム仕様に適合する特定モデルを保証できる圧縮コンパイル協調設計フレームワークを提案する。
本稿では,質問応答 (QA) とテキスト生成 (テキスト生成) の2種類のBERTアプリケーションについて述べる。
論文 参考訳(メタデータ) (2021-05-30T16:19:11Z) - FastHand: Fast Hand Pose Estimation From A Monocular Camera [12.790733588554588]
ハンドポーズ推定のための高速・高精度なフレームワーク「FastHand」を提案します。
FastHandは、NVIDIA Jetson TX2グラフィックス処理ユニットで毎秒25フレームの速度に達しながら、高い精度のスコアを提供する。
論文 参考訳(メタデータ) (2021-02-14T04:12:41Z) - Real-Time Execution of Large-scale Language Models on Mobile [49.32610509282623]
BERTの最良のモデル構造は,特定のデバイスに適合する計算サイズである。
我々のフレームワークは、モバイルデバイスのリソース仕様とリアルタイム仕様の両方を満たすための特定モデルを保証することができる。
具体的には、当社のモデルはCPUでは5.2倍、GPUでは4.1倍、BERTベースでは0.5-2%の精度損失がある。
論文 参考訳(メタデータ) (2020-09-15T01:59:17Z) - Faster Person Re-Identification [68.22203008760269]
本稿では,新しいハッシュコード検索戦略を定式化することによって,高速ReIDのための新しいソリューションを提案する。
より短いコードを使用して、より正確なReIDのいくつかのトップ候補を洗練するために、より広い一致の類似性を粗くランク付けし、より長いコードを使用する。
2つのデータセットに対する実験結果から,提案手法(CtF)は現在のハッシュReID法よりも8%精度が高いだけでなく,5倍高速であることがわかった。
論文 参考訳(メタデータ) (2020-08-16T03:02:49Z) - TapLab: A Fast Framework for Semantic Video Segmentation Tapping into
Compressed-Domain Knowledge [161.4188504786512]
リアルタイムセマンティックビデオセグメンテーションは、推論速度の厳格な要件のために難しい課題である。
最近のアプローチは主に、高効率のモデルサイズ削減に多大な努力を払っている。
我々は、圧縮されたドメインからリソースを取り込み、TapLabと呼ばれるシンプルで効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-30T08:13:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。