論文の概要: Resolving Indirect Referring Expressions for Entity Selection
- arxiv url: http://arxiv.org/abs/2212.10933v2
- Date: Fri, 26 May 2023 20:17:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 02:25:42.619944
- Title: Resolving Indirect Referring Expressions for Entity Selection
- Title(参考訳): エンティティ選択のための間接参照表現の解決
- Authors: Mohammad Javad Hosseini, Filip Radlinski, Silvia Pareti, Annie Louis
- Abstract要約: 自然表現を用いて実体を選択した場合の参照分解能の問題に対処する。
このような言語を頑健に理解することは、ダイアログ、レコメンデーション、検索システムにおいて自然性を改善する大きな可能性を秘めている。
私たちは、42Kエンティティペアと式(ペア内の1つのエンティティを参照)からなる新しいパブリックデータセットであるAltEntities(Alternative Entities)を作成します。
- 参考スコア(独自算出の注目度): 7.7267313512902644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in language modeling have enabled new conversational systems.
In particular, it is often desirable for people to make choices among specified
options when using such systems. We address this problem of reference
resolution, when people use natural expressions to choose between the entities.
For example, given the choice `Should we make a Simnel cake or a Pandan cake?'
a natural response from a dialog participant may be indirect: `let's make the
green one'. Such natural expressions have been little studied for reference
resolution. We argue that robustly understanding such language has large
potential for improving naturalness in dialog, recommendation, and search
systems. We create AltEntities (Alternative Entities), a new public dataset of
42K entity pairs and expressions (referring to one entity in the pair), and
develop models for the disambiguation problem. Consisting of indirect referring
expressions across three domains, our corpus enables for the first time the
study of how language models can be adapted to this task. We find they achieve
82%-87% accuracy in realistic settings, which while reasonable also invites
further advances.
- Abstract(参考訳): 言語モデリングの最近の進歩は、新しい会話システムを可能にした。
特に、そのようなシステムを使用する場合、特定の選択肢の中から選択することが望ましい場合が多い。
我々は、自然表現を使ってエンティティを選択した場合、参照解決の問題に対処する。
例えば、"should we make a simnel cake or a pandan cake?"という選択をすると、ダイアログ参加者からの自然な応答は間接的に "let's make the green one" となる。
このような自然表現は参照分解のためにはほとんど研究されていない。
このような言語を堅牢に理解することは、対話、推薦、検索システムにおける自然性を改善する大きな可能性を秘めている。
AltEntities(Alternative Entities)は42Kのエンティティペアと式(ペア内の1つのエンティティを参照)からなる新しいパブリックデータセットで、曖昧性問題のためのモデルを開発する。
3つの領域にわたる間接参照表現からなるコーパスは、このタスクに言語モデルをどのように適用できるかの研究を初めて可能にする。
現実的な設定では82%-87%の精度を実現しています。
関連論文リスト
- Language Representations Can be What Recommenders Need: Findings and Potentials [57.90679739598295]
先進的なLM表現から線形にマッピングされた項目表現は、より優れたレコメンデーション性能が得られることを示す。
この結果は、先進言語表現空間と効果的な項目表現空間との同型性を示唆している。
本研究は,自然言語処理とリコメンデーションシステムコミュニティの両方に刺激を与える言語モデリングと行動モデリングの関連性を強調した。
論文 参考訳(メタデータ) (2024-07-07T17:05:24Z) - OLaLa: Ontology Matching with Large Language Models [2.211868306499727]
オントロジーマッチング(Ontology Matching)は、自然言語の情報が処理すべき最も重要な信号の1つである、困難なタスクである。
大規模言語モデルの台頭により、この知識をマッチングパイプラインにより良い方法で組み込むことが可能である。
少数の例とよく設計されたプロンプトで、教師付きマッチングシステムに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2023-11-07T09:34:20Z) - Light Coreference Resolution for Russian with Hierarchical Discourse
Features [0.0]
ニューラルコア参照解決モデルに修辞情報を組み込んだ新しいアプローチを提案する。
部分的に微調整された多言語エンティティ認識言語モデルLUKEを用いて、エンドツーエンドのスパンベースコア参照リゾルバを実装した。
言及間の修辞的距離を用いた最良のモデルでは、開発セット(74.6% F1)で1位、共有タスク(73.3% F1)で2位にランクされている。
論文 参考訳(メタデータ) (2023-06-02T11:41:24Z) - ABINet++: Autonomous, Bidirectional and Iterative Language Modeling for
Scene Text Spotting [121.11880210592497]
言語モデルの限られた能力は,1)暗黙的な言語モデリング,2)一方向の特徴表現,3)雑音入力を伴う言語モデルから生じる。
シーンテキストスポッティングのための自律的で双方向かつ反復的なABINet++を提案する。
論文 参考訳(メタデータ) (2022-11-19T03:50:33Z) - Multilingual Syntax-aware Language Modeling through Dependency Tree
Conversion [12.758523394180695]
本研究では,9つの変換法と5つの言語にまたがるニューラル言語モデル(LM)の性能への影響について検討する。
平均して、私たちの最高のモデルのパフォーマンスは、すべての言語で最悪の選択に対して、19パーセントの精度向上を示しています。
我々の実験は、正しい木形式を選ぶことの重要性を強調し、情報的な決定を下すための洞察を提供する。
論文 参考訳(メタデータ) (2022-04-19T03:56:28Z) - Read Like Humans: Autonomous, Bidirectional and Iterative Language
Modeling for Scene Text Recognition [80.446770909975]
言語知識はシーンのテキスト認識に非常に有益である。
エンドツーエンドのディープネットワークで言語規則を効果的にモデル化する方法はまだ研究の課題です。
シーンテキスト認識のための自律的双方向反復型ABINetを提案する。
論文 参考訳(メタデータ) (2021-03-11T06:47:45Z) - Unnatural Language Inference [48.45003475966808]
我々は、RoBERTaやBARTのような最先端のNLIモデルは、ランダムに並べ替えられた単語の例に不変であり、時にはよりよく機能することさえあります。
我々の発見は、自然言語理解モデルと、その進捗を測定するために使われるタスクが、本当に人間のような構文理解を必要とするという考えに疑問を投げかけている。
論文 参考訳(メタデータ) (2020-12-30T20:40:48Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - A Simple Joint Model for Improved Contextual Neural Lemmatization [60.802451210656805]
本稿では,20言語で最先端の成果を得られる,単純結合型ニューラルモデルを提案する。
本論文では,トレーニングと復号化に加えて,本モデルについて述べる。
論文 参考訳(メタデータ) (2019-04-04T02:03:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。