論文の概要: A Brief Survey and Comparative Study of Recent Development of Pronoun
Coreference Resolution
- arxiv url: http://arxiv.org/abs/2009.12721v1
- Date: Sun, 27 Sep 2020 01:40:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 03:35:12.754771
- Title: A Brief Survey and Comparative Study of Recent Development of Pronoun
Coreference Resolution
- Title(参考訳): 代名詞共参照分解能の最近の展開に関する調査と比較研究
- Authors: Hongming Zhang, Xinran Zhao, Yangqiu Song
- Abstract要約: PCR(Pronoun Coreference Resolution)は、プロノミナルな表現を、それらが参照するすべての言及に対して解決するタスクである。
1つの重要な自然言語理解(NLU)コンポーネントとして、代名詞分解は多くの下流タスクにおいて不可欠であり、既存のモデルでは依然として困難である。
我々は、現在のモデルが標準評価セットで優れたパフォーマンスを達成しているにもかかわらず、実際のアプリケーションで使用する準備ができていないことを示すために、広範な実験を行っている。
- 参考スコア(独自算出の注目度): 55.39835612617972
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pronoun Coreference Resolution (PCR) is the task of resolving pronominal
expressions to all mentions they refer to. Compared with the general
coreference resolution task, the main challenge of PCR is the coreference
relation prediction rather than the mention detection. As one important natural
language understanding (NLU) component, pronoun resolution is crucial for many
downstream tasks and still challenging for existing models, which motivates us
to survey existing approaches and think about how to do better. In this survey,
we first introduce representative datasets and models for the ordinary pronoun
coreference resolution task. Then we focus on recent progress on hard pronoun
coreference resolution problems (e.g., Winograd Schema Challenge) to analyze
how well current models can understand commonsense. We conduct extensive
experiments to show that even though current models are achieving good
performance on the standard evaluation set, they are still not ready to be used
in real applications (e.g., all SOTA models struggle on correctly resolving
pronouns to infrequent objects). All experiment codes are available at
https://github.com/HKUST-KnowComp/PCR.
- Abstract(参考訳): PCR(Pronoun Coreference Resolution)は、プロノミナルな表現を彼らが参照するすべての言及に対して解決するタスクである。
一般的なコリファレンス解決タスクと比較すると、pcrの主な課題は言及検出よりもコリファレンス関係予測である。
重要な自然言語理解(NLU)コンポーネントの1つとして、代名詞分解は多くの下流タスクには不可欠であり、既存のモデルには依然として挑戦的です。
本稿では,まず,正規代名詞共参照解決タスクのための代表データセットとモデルを紹介する。
次に,近年のハード代名詞コリファレンス解決問題(例えば,winograd schema challenge)に注目し,現在のモデルに共通性がどの程度理解できるかを分析する。
我々は、現在のモデルが標準評価セットで良いパフォーマンスを達成しているにもかかわらず、実際のアプリケーションで使用する準備ができていないことを示すため、広範囲な実験を行っている(例:全てのSOTAモデルは、しばしば発生するオブジェクトに対して代名詞を正しく解くのに苦労している)。
すべての実験コードはhttps://github.com/HKUST-KnowComp/PCRで入手できる。
関連論文リスト
- Generative Judge for Evaluating Alignment [84.09815387884753]
本稿では,これらの課題に対処するために,13Bパラメータを持つ生成判断器Auto-Jを提案する。
我々のモデルは,大規模な実環境シナリオ下でのユーザクエリとLLM生成応答に基づいて訓練されている。
実験的に、Auto-Jはオープンソースモデルとクローズドソースモデルの両方を含む、強力なライバルのシリーズを上回っている。
論文 参考訳(メタデータ) (2023-10-09T07:27:15Z) - Light Coreference Resolution for Russian with Hierarchical Discourse
Features [0.0]
ニューラルコア参照解決モデルに修辞情報を組み込んだ新しいアプローチを提案する。
部分的に微調整された多言語エンティティ認識言語モデルLUKEを用いて、エンドツーエンドのスパンベースコア参照リゾルバを実装した。
言及間の修辞的距離を用いた最良のモデルでは、開発セット(74.6% F1)で1位、共有タスク(73.3% F1)で2位にランクされている。
論文 参考訳(メタデータ) (2023-06-02T11:41:24Z) - A Survey on Zero Pronoun Translation [69.09774294082965]
ゼロ代名詞(ZP)はプロドロップ言語では省略されることが多いが、非プロドロップ言語ではリコールされるべきである。
本研究は, 神経革命後のゼロ代名詞翻訳(ZPT)における主要な研究について述べる。
1) ZPTは大規模言語モデルの発展傾向と一致している; 2) データの制限は言語やドメインの学習バイアスを引き起こす; 3) 性能改善は単一のベンチマークで報告されることが多いが、高度な手法はまだ実世界の利用には程遠い。
論文 参考訳(メタデータ) (2023-05-17T13:19:01Z) - Exploring Multi-Modal Representations for Ambiguity Detection &
Coreference Resolution in the SIMMC 2.0 Challenge [60.616313552585645]
会話型AIにおける効果的なあいまいさ検出と参照解決のためのモデルを提案する。
具体的には,TOD-BERTとLXMERTをベースとしたモデルを用いて,多数のベースラインと比較し,アブレーション実験を行う。
以上の結果から,(1)言語モデルでは曖昧さを検出するためにデータの相関を活用でき,(2)言語モデルではビジョンコンポーネントの必要性を回避できることがわかった。
論文 参考訳(メタデータ) (2022-02-25T12:10:02Z) - Coreference Reasoning in Machine Reading Comprehension [100.75624364257429]
機械読解におけるコレファレンス推論は,従来考えられていたよりも大きな課題である。
本稿では,コア参照推論の課題を反映した理解データセットの読解手法を提案する。
これにより、さまざまなMRCデータセットにまたがる最先端のモデルの推論能力が向上します。
論文 参考訳(メタデータ) (2020-12-31T12:18:41Z) - A Rigorous Study on Named Entity Recognition: Can Fine-tuning Pretrained
Model Lead to the Promised Land? [44.87003366511073]
微調整事前訓練モデルは標準のNERベンチマークで有望な性能を達成した。
残念ながら、NERをオープンな状況にスケールする場合、これらの利点はもはや存在しないかもしれない。
本稿では,標準ベンチマーク上でランダム化テストを実施することを提案する。
論文 参考訳(メタデータ) (2020-04-25T12:30:16Z) - ReClor: A Reading Comprehension Dataset Requiring Logical Reasoning [85.33459673197149]
標準化された大学院受験試験から抽出した論理的推論(ReClor)を必要とする新たな読解データセットを提案する。
本稿では、偏りのあるデータポイントを識別し、それらをEASY集合と残りをHARD集合に分離することを提案する。
実験結果によると、最先端のモデルでは、データセットに含まれるバイアスをEASYセット上で高精度にキャプチャする能力に優れていた。
しかし、彼らはランダムな推測に近い性能のHARDセットに苦慮しており、現在のモデルの論理的推論能力を本質的に向上させるためには、より多くの研究が必要であることを示している。
論文 参考訳(メタデータ) (2020-02-11T11:54:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。