論文の概要: CorPipe at CRAC 2025: Evaluating Multilingual Encoders for Multilingual Coreference Resolution
- arxiv url: http://arxiv.org/abs/2509.17858v1
- Date: Mon, 22 Sep 2025 14:51:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.447158
- Title: CorPipe at CRAC 2025: Evaluating Multilingual Encoders for Multilingual Coreference Resolution
- Title(参考訳): CRAC 2025におけるCorPipe:多言語照合解決のための多言語エンコーダの評価
- Authors: Milan Straka,
- Abstract要約: CorPipe 25 は CRAC 2025 Shared Task on Multilingual Coreference Resolution の勝者である。
当システムでは,LLMおよび非制約トラックにおける他の全ての提案よりも,実質的なマージンが8ポイント向上した。
- 参考スコア(独自算出の注目度): 0.6671865055671308
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present CorPipe 25, the winning entry to the CRAC 2025 Shared Task on Multilingual Coreference Resolution. This fourth iteration of the shared task introduces a new LLM track alongside the original unconstrained track, features reduced development and test sets to lower computational requirements, and includes additional datasets. CorPipe 25 represents a complete reimplementation of our previous systems, migrating from TensorFlow to PyTorch. Our system significantly outperforms all other submissions in both the LLM and unconstrained tracks by a substantial margin of 8 percentage points. The source code and trained models are publicly available at https://github.com/ufal/crac2025-corpipe.
- Abstract(参考訳): 我々は、CRAC 2025共有タスクの勝者であるCorPipe 25について述べる。
共有タスクの4回目のイテレーションでは、元の制約のないトラックと並行して、新しいLSMトラックが導入され、開発とテストセットが削減され、計算要求が減少し、追加のデータセットが含まれている。
CorPipe 25は、TensorFlowからPyTorchに移行する、これまでのシステムの完全な再実装を表しています。
当システムでは,LLMおよび非拘束トラックにおける他の全ての提案よりも,実質的なマージンが8ポイント向上した。
ソースコードとトレーニングされたモデルはhttps://github.com/ufal/crac2025-corpipeで公開されている。
関連論文リスト
- UnitCoder: Scalable Iterative Code Synthesis with Unit Test Guidance [65.01483640267885]
大きな言語モデル(LLM)は、様々なタスクにおいて顕著な能力を示してきたが、コード生成は依然として大きな課題である。
私たちは、モデル生成ユニットテストを活用してコード生成プロセスのガイドと検証を行う、システマティックパイプラインであるUnitCoderを紹介します。
我々の研究は、モデル生成単体テストを利用して、事前学習コーパスから高品質なコードデータの合成を誘導するスケーラブルなアプローチを提案する。
論文 参考訳(メタデータ) (2025-02-17T05:37:02Z) - ÚFAL CorPipe at CRAC 2023: Larger Context Improves Multilingual Coreference Resolution [1.2772632966631616]
CRAC 2023 Shared Task on Multilingual Coreference Resolution で優勝した CorPipe について述べる。
我々のシステムは、初期のマルチリンガル・コアス・パイプラインの改良版であり、他の参加者を4.5%の差で上回っている。
論文 参考訳(メタデータ) (2023-11-24T10:15:34Z) - NAVER LABS Europe's Multilingual Speech Translation Systems for the
IWSLT 2023 Low-Resource Track [78.80683163990446]
本稿では,IWSLT 2023low-Resource trackにおけるタマシェク・フレンチ・ケチュア・スペイン語音声翻訳のためのNAVER LABS Europeのシステムについて述べる。
本研究は,多言語パラメータ効率ソリューションを用いた低リソース環境における翻訳品質の最大化を試みる。
論文 参考訳(メタデータ) (2023-06-13T13:22:30Z) - CodeT5+: Open Code Large Language Models for Code Understanding and
Generation [72.1638273937025]
大きな言語モデル (LLM) は膨大なソースコードで事前訓練されており、コードインテリジェンスにおいて顕著な進歩を遂げている。
CodeT5+は、コンポーネントモジュールを柔軟に組み合わせて、幅広い下流のコードタスクに適合させることができるコードのためのエンコーダ-デコーダLLMのファミリーである。
我々は、ゼロショット、微調整、命令調整を含む20以上のコード関連ベンチマークでCodeT5+を広範囲に評価した。
論文 参考訳(メタデータ) (2023-05-13T14:23:07Z) - ÚFAL CorPipe at CRAC 2022: Effectivity of Multilingual Models for Coreference Resolution [1.7871207544302354]
CRAC 2022 における多言語照合解決のための共有タスクの入賞条件について述べる。
提案システムは,まず参照検出を解き,抽出したスパンと先行最大化手法をリンクする。
論文 参考訳(メタデータ) (2022-09-15T13:11:39Z) - Multilingual Machine Translation Systems from Microsoft for WMT21 Shared
Task [95.06453182273027]
本報告では、大規模多言語機械翻訳におけるWMT21共有タスクのためのMicrosoftの機械翻訳システムについて述べる。
共有タスクへのモデル提出はDeltaLMnotefooturlhttps://aka.ms/deltalmで行われました。
最終提出は自動評価基準で3トラックにランクインした。
論文 参考訳(メタデータ) (2021-11-03T09:16:17Z) - Learning Delicate Local Representations for Multi-Person Pose Estimation [77.53144055780423]
我々はResidual Steps Network (RSN) と呼ばれる新しい手法を提案する。
RSNは同じ空間サイズ(イントラレベルの特徴)の機能を効率よく集約し、微妙な局所表現を得る。
当社のアプローチは,COCO Keypoint Challenge 2019で第1位を獲得しました。
論文 参考訳(メタデータ) (2020-03-09T10:40:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。