論文の概要: A Brief Survey and Comparative Study of Recent Development of Pronoun
Coreference Resolution
- arxiv url: http://arxiv.org/abs/2009.12721v1
- Date: Sun, 27 Sep 2020 01:40:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 03:35:12.754771
- Title: A Brief Survey and Comparative Study of Recent Development of Pronoun
Coreference Resolution
- Title(参考訳): 代名詞共参照分解能の最近の展開に関する調査と比較研究
- Authors: Hongming Zhang, Xinran Zhao, Yangqiu Song
- Abstract要約: PCR(Pronoun Coreference Resolution)は、プロノミナルな表現を、それらが参照するすべての言及に対して解決するタスクである。
1つの重要な自然言語理解(NLU)コンポーネントとして、代名詞分解は多くの下流タスクにおいて不可欠であり、既存のモデルでは依然として困難である。
我々は、現在のモデルが標準評価セットで優れたパフォーマンスを達成しているにもかかわらず、実際のアプリケーションで使用する準備ができていないことを示すために、広範な実験を行っている。
- 参考スコア(独自算出の注目度): 55.39835612617972
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pronoun Coreference Resolution (PCR) is the task of resolving pronominal
expressions to all mentions they refer to. Compared with the general
coreference resolution task, the main challenge of PCR is the coreference
relation prediction rather than the mention detection. As one important natural
language understanding (NLU) component, pronoun resolution is crucial for many
downstream tasks and still challenging for existing models, which motivates us
to survey existing approaches and think about how to do better. In this survey,
we first introduce representative datasets and models for the ordinary pronoun
coreference resolution task. Then we focus on recent progress on hard pronoun
coreference resolution problems (e.g., Winograd Schema Challenge) to analyze
how well current models can understand commonsense. We conduct extensive
experiments to show that even though current models are achieving good
performance on the standard evaluation set, they are still not ready to be used
in real applications (e.g., all SOTA models struggle on correctly resolving
pronouns to infrequent objects). All experiment codes are available at
https://github.com/HKUST-KnowComp/PCR.
- Abstract(参考訳): PCR(Pronoun Coreference Resolution)は、プロノミナルな表現を彼らが参照するすべての言及に対して解決するタスクである。
一般的なコリファレンス解決タスクと比較すると、pcrの主な課題は言及検出よりもコリファレンス関係予測である。
重要な自然言語理解(NLU)コンポーネントの1つとして、代名詞分解は多くの下流タスクには不可欠であり、既存のモデルには依然として挑戦的です。
本稿では,まず,正規代名詞共参照解決タスクのための代表データセットとモデルを紹介する。
次に,近年のハード代名詞コリファレンス解決問題(例えば,winograd schema challenge)に注目し,現在のモデルに共通性がどの程度理解できるかを分析する。
我々は、現在のモデルが標準評価セットで良いパフォーマンスを達成しているにもかかわらず、実際のアプリケーションで使用する準備ができていないことを示すため、広範囲な実験を行っている(例:全てのSOTAモデルは、しばしば発生するオブジェクトに対して代名詞を正しく解くのに苦労している)。
すべての実験コードはhttps://github.com/HKUST-KnowComp/PCRで入手できる。
関連論文リスト
- Solving the Challenge Set without Solving the Task: On Winograd Schemas as a Test of Pronominal Coreference Resolution [21.19369044026899]
我々は,Winograd Challenge セットにおける言語モデル (LM) の強い性能にもかかわらず,OntoNotes で実証されたある種の固有曖昧性を解決する上で,これらのモデリング手法は比較的貧弱であることを示す。
提案手法は,各データセット間での固有コアの解法において,総合的に高精度な教師付きタスク固有システムを用いて,誘導型LMをアンサンブルする方法である。
論文 参考訳(メタデータ) (2024-10-12T09:04:53Z) - Alice in Wonderland: Simple Tasks Showing Complete Reasoning Breakdown in State-Of-the-Art Large Language Models [13.532180752491954]
利用可能な最大規模でトレーニングされた最先端モデルの機能と推論能力の劇的な破壊を実演する。
モデルは、問題の解決に影響を与えない、微妙な問題バリエーションでさえも強い変動を示すため、その分解は劇的である。
これらの初期観測は、現在世代の大言語モデルが主張する能力の再評価を急激に促すものである。
論文 参考訳(メタデータ) (2024-06-04T07:43:33Z) - Generative Judge for Evaluating Alignment [84.09815387884753]
本稿では,これらの課題に対処するために,13Bパラメータを持つ生成判断器Auto-Jを提案する。
我々のモデルは,大規模な実環境シナリオ下でのユーザクエリとLLM生成応答に基づいて訓練されている。
実験的に、Auto-Jはオープンソースモデルとクローズドソースモデルの両方を含む、強力なライバルのシリーズを上回っている。
論文 参考訳(メタデータ) (2023-10-09T07:27:15Z) - A Survey on Zero Pronoun Translation [69.09774294082965]
ゼロ代名詞(ZP)はプロドロップ言語では省略されることが多いが、非プロドロップ言語ではリコールされるべきである。
本研究は, 神経革命後のゼロ代名詞翻訳(ZPT)における主要な研究について述べる。
1) ZPTは大規模言語モデルの発展傾向と一致している; 2) データの制限は言語やドメインの学習バイアスを引き起こす; 3) 性能改善は単一のベンチマークで報告されることが多いが、高度な手法はまだ実世界の利用には程遠い。
論文 参考訳(メタデータ) (2023-05-17T13:19:01Z) - Exploring Multi-Modal Representations for Ambiguity Detection &
Coreference Resolution in the SIMMC 2.0 Challenge [60.616313552585645]
会話型AIにおける効果的なあいまいさ検出と参照解決のためのモデルを提案する。
具体的には,TOD-BERTとLXMERTをベースとしたモデルを用いて,多数のベースラインと比較し,アブレーション実験を行う。
以上の結果から,(1)言語モデルでは曖昧さを検出するためにデータの相関を活用でき,(2)言語モデルではビジョンコンポーネントの必要性を回避できることがわかった。
論文 参考訳(メタデータ) (2022-02-25T12:10:02Z) - Coreference Reasoning in Machine Reading Comprehension [100.75624364257429]
機械読解におけるコレファレンス推論は,従来考えられていたよりも大きな課題である。
本稿では,コア参照推論の課題を反映した理解データセットの読解手法を提案する。
これにより、さまざまなMRCデータセットにまたがる最先端のモデルの推論能力が向上します。
論文 参考訳(メタデータ) (2020-12-31T12:18:41Z) - A Rigorous Study on Named Entity Recognition: Can Fine-tuning Pretrained
Model Lead to the Promised Land? [44.87003366511073]
微調整事前訓練モデルは標準のNERベンチマークで有望な性能を達成した。
残念ながら、NERをオープンな状況にスケールする場合、これらの利点はもはや存在しないかもしれない。
本稿では,標準ベンチマーク上でランダム化テストを実施することを提案する。
論文 参考訳(メタデータ) (2020-04-25T12:30:16Z) - ReClor: A Reading Comprehension Dataset Requiring Logical Reasoning [85.33459673197149]
標準化された大学院受験試験から抽出した論理的推論(ReClor)を必要とする新たな読解データセットを提案する。
本稿では、偏りのあるデータポイントを識別し、それらをEASY集合と残りをHARD集合に分離することを提案する。
実験結果によると、最先端のモデルでは、データセットに含まれるバイアスをEASYセット上で高精度にキャプチャする能力に優れていた。
しかし、彼らはランダムな推測に近い性能のHARDセットに苦慮しており、現在のモデルの論理的推論能力を本質的に向上させるためには、より多くの研究が必要であることを示している。
論文 参考訳(メタデータ) (2020-02-11T11:54:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。