論文の概要: Resolving Indirect Referring Expressions for Entity Selection
- arxiv url: http://arxiv.org/abs/2212.10933v1
- Date: Wed, 21 Dec 2022 11:22:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 14:57:14.717674
- Title: Resolving Indirect Referring Expressions for Entity Selection
- Title(参考訳): エンティティ選択のための間接参照表現の解決
- Authors: Mohammad Javad Hosseini, Filip Radlinski, Silvia Pareti, Annie Louis
- Abstract要約: 実世界の実体の選択に自然表現を用いる場合、参照解決の問題に対処する。
エンティティペアと発話の新しいパブリックデータセットであるAltEntities(Alternative Entities)を作成します。
これは、このタスクにどの程度大きな言語モデルを適用することができるかについて、初めて研究することができる。
- 参考スコア(独自算出の注目度): 7.7267313512902644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in language modeling have enabled new conversational systems.
In particular, it is often desirable for people to make choices among specified
options when using such systems. We address the problem of reference
resolution, when people use natural expressions to choose between real world
entities. For example, given the choice `Should we make a Simnel cake or a
Pandan cake?' a natural response from a non-expert may be indirect: `let's make
the green one'. Reference resolution has been little studied with natural
expressions, thus robustly understanding such language has large potential for
improving naturalness in dialog, recommendation, and search systems. We create
AltEntities (Alternative Entities), a new public dataset of entity pairs and
utterances, and develop models for the disambiguation problem. Consisting of
42K indirect referring expressions across three domains, it enables for the
first time the study of how large language models can be adapted to this task.
We find they achieve 82%-87% accuracy in realistic settings, which while
reasonable also invites further advances.
- Abstract(参考訳): 言語モデリングの最近の進歩は、新しい会話システムを可能にした。
特に、そのようなシステムを使用する場合、特定の選択肢の中から選択することが望ましい場合が多い。
我々は、人々が自然表現を使って現実世界のエンティティを選択するとき、参照解決の問題を解決する。
例えば、"should we make a simnel cake or a pandan cake?"という選択をすると、非専門家からの自然な反応は間接的に "let's make the green one" となる。
参照分解能は自然表現ではほとんど研究されておらず、そのような言語がダイアログやレコメンデーション、検索システムにおいて自然性を改善する大きな可能性を強く理解している。
私たちは、エンティティペアと発話の新しいパブリックデータセットであるAltEntities(Alternative Entities)を作成し、曖昧な問題のためのモデルを開発します。
3つのドメインにまたがって42Kの間接的な参照表現を持ち、このタスクにいかに大きな言語モデルが適応できるかを初めて研究することができる。
現実的な設定では82%-87%の精度を実現しています。
関連論文リスト
- Language Representations Can be What Recommenders Need: Findings and Potentials [57.90679739598295]
先進的なLM表現から線形にマッピングされた項目表現は、より優れたレコメンデーション性能が得られることを示す。
この結果は、先進言語表現空間と効果的な項目表現空間との同型性を示唆している。
本研究は,自然言語処理とリコメンデーションシステムコミュニティの両方に刺激を与える言語モデリングと行動モデリングの関連性を強調した。
論文 参考訳(メタデータ) (2024-07-07T17:05:24Z) - OLaLa: Ontology Matching with Large Language Models [2.211868306499727]
オントロジーマッチング(Ontology Matching)は、自然言語の情報が処理すべき最も重要な信号の1つである、困難なタスクである。
大規模言語モデルの台頭により、この知識をマッチングパイプラインにより良い方法で組み込むことが可能である。
少数の例とよく設計されたプロンプトで、教師付きマッチングシステムに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2023-11-07T09:34:20Z) - Light Coreference Resolution for Russian with Hierarchical Discourse
Features [0.0]
ニューラルコア参照解決モデルに修辞情報を組み込んだ新しいアプローチを提案する。
部分的に微調整された多言語エンティティ認識言語モデルLUKEを用いて、エンドツーエンドのスパンベースコア参照リゾルバを実装した。
言及間の修辞的距離を用いた最良のモデルでは、開発セット(74.6% F1)で1位、共有タスク(73.3% F1)で2位にランクされている。
論文 参考訳(メタデータ) (2023-06-02T11:41:24Z) - ABINet++: Autonomous, Bidirectional and Iterative Language Modeling for
Scene Text Spotting [121.11880210592497]
言語モデルの限られた能力は,1)暗黙的な言語モデリング,2)一方向の特徴表現,3)雑音入力を伴う言語モデルから生じる。
シーンテキストスポッティングのための自律的で双方向かつ反復的なABINet++を提案する。
論文 参考訳(メタデータ) (2022-11-19T03:50:33Z) - Multilingual Syntax-aware Language Modeling through Dependency Tree
Conversion [12.758523394180695]
本研究では,9つの変換法と5つの言語にまたがるニューラル言語モデル(LM)の性能への影響について検討する。
平均して、私たちの最高のモデルのパフォーマンスは、すべての言語で最悪の選択に対して、19パーセントの精度向上を示しています。
我々の実験は、正しい木形式を選ぶことの重要性を強調し、情報的な決定を下すための洞察を提供する。
論文 参考訳(メタデータ) (2022-04-19T03:56:28Z) - Read Like Humans: Autonomous, Bidirectional and Iterative Language
Modeling for Scene Text Recognition [80.446770909975]
言語知識はシーンのテキスト認識に非常に有益である。
エンドツーエンドのディープネットワークで言語規則を効果的にモデル化する方法はまだ研究の課題です。
シーンテキスト認識のための自律的双方向反復型ABINetを提案する。
論文 参考訳(メタデータ) (2021-03-11T06:47:45Z) - Unnatural Language Inference [48.45003475966808]
我々は、RoBERTaやBARTのような最先端のNLIモデルは、ランダムに並べ替えられた単語の例に不変であり、時にはよりよく機能することさえあります。
我々の発見は、自然言語理解モデルと、その進捗を測定するために使われるタスクが、本当に人間のような構文理解を必要とするという考えに疑問を投げかけている。
論文 参考訳(メタデータ) (2020-12-30T20:40:48Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - A Simple Joint Model for Improved Contextual Neural Lemmatization [60.802451210656805]
本稿では,20言語で最先端の成果を得られる,単純結合型ニューラルモデルを提案する。
本論文では,トレーニングと復号化に加えて,本モデルについて述べる。
論文 参考訳(メタデータ) (2019-04-04T02:03:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。