論文の概要: SLAM-Inspired Simultaneous Contextualization and Interpreting for
Incremental Conversation Sentences
- arxiv url: http://arxiv.org/abs/2005.14662v1
- Date: Fri, 29 May 2020 16:40:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 22:47:33.718332
- Title: SLAM-Inspired Simultaneous Contextualization and Interpreting for
Incremental Conversation Sentences
- Title(参考訳): SLAMにインスパイアされたインクリメンタル会話文の同時文脈化と解釈
- Authors: Yusuke Takimoto, Yosuke Fukuchi, Shoya Matsumori, Michita Imai
- Abstract要約: 逐次文中の多文単語の文脈と解釈を動的に推定する手法を提案する。
SCAINアルゴリズムを用いることで、文脈と単語の解釈の相互依存性を逐次最適化し、新しい解釈をオンラインで得ることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distributed representation of words has improved the performance for many
natural language tasks. In many methods, however, only one meaning is
considered for one label of a word, and multiple meanings of polysemous words
depending on the context are rarely handled. Although research works have dealt
with polysemous words, they determine the meanings of such words according to a
batch of large documents. Hence, there are two problems with applying these
methods to sequential sentences, as in a conversation that contains ambiguous
expressions. The first problem is that the methods cannot sequentially deal
with the interdependence between context and word interpretation, in which
context is decided by word interpretations and the word interpretations are
decided by the context. Context estimation must thus be performed in parallel
to pursue multiple interpretations. The second problem is that the previous
methods use large-scale sets of sentences for offline learning of new
interpretations, and the steps of learning and inference are clearly separated.
Such methods using offline learning cannot obtain new interpretations during a
conversation. Hence, to dynamically estimate the conversation context and
interpretations of polysemous words in sequential sentences, we propose a
method of Simultaneous Contextualization And INterpreting (SCAIN) based on the
traditional Simultaneous Localization And Mapping (SLAM) algorithm. By using
the SCAIN algorithm, we can sequentially optimize the interdependence between
context and word interpretation while obtaining new interpretations online. For
experimental evaluation, we created two datasets: one from Wikipedia's
disambiguation pages and the other from real conversations. For both datasets,
the results confirmed that SCAIN could effectively achieve sequential
optimization of the interdependence and acquisition of new interpretations.
- Abstract(参考訳): 単語の分散表現は多くの自然言語タスクのパフォーマンスを改善した。
しかし、多くの手法では単語の1つのラベルに対して1つの意味しか考慮されておらず、文脈によって多義語の複数の意味が扱われることはほとんどない。
研究は多義語を取り扱っているが、大文書の一括によってその意味を決定づけている。
したがって、あいまいな表現を含む会話のように、逐次文にこれらの方法を適用することには2つの問題がある。
第1の問題は、文脈と単語解釈の相互依存を順次処理できないことであり、文脈は単語解釈によって決定され、単語解釈は文脈によって決定される。
したがって、複数の解釈を追求するためにコンテキスト推定を並列に行う必要がある。
第2の問題は、従来の手法では、新しい解釈のオフライン学習に大規模な文セットを使用しており、学習と推論のステップが明確に分離されていることである。
このようなオフライン学習は会話中に新しい解釈を得ることができない。
そこで, 逐次文における多文単語の会話状況と解釈を動的に推定するために, 従来のSLAMアルゴリズムに基づくSCAIN(Symtaneous Contextualization and Interpreting)手法を提案する。
SCAINアルゴリズムを用いることで、文脈と単語の解釈の相互依存性を逐次最適化し、新しい解釈をオンラインで得ることができる。
実験的な評価のために、wikipediaの曖昧さ回避ページと実際の会話の2つのデータセットを作成しました。
両データセットにおいて,scainは相互依存の逐次最適化と新しい解釈の獲得を効果的に達成できることを確認した。
関連論文リスト
- DenoSent: A Denoising Objective for Self-Supervised Sentence
Representation Learning [59.4644086610381]
本稿では,他の視点,すなわち文内視点から継承する新たな認知的目的を提案する。
離散ノイズと連続ノイズの両方を導入することで、ノイズの多い文を生成し、モデルを元の形式に復元するように訓練する。
我々の経験的評価は,本手法が意味的テキスト類似性(STS)と幅広い伝達タスクの両面で競合する結果をもたらすことを示した。
論文 参考訳(メタデータ) (2024-01-24T17:48:45Z) - RankCSE: Unsupervised Sentence Representations Learning via Learning to
Rank [54.854714257687334]
本稿では,教師なし文表現学習のための新しい手法であるRangCSEを提案する。
コントラスト学習を伴うランキング一貫性とランキング蒸留を統一された枠組みに組み込む。
セマンティックテキスト類似性(STS)と転送タスク(TR)の両方について、広範な実験が実施されている。
論文 参考訳(メタデータ) (2023-05-26T08:27:07Z) - SensePOLAR: Word sense aware interpretability for pre-trained contextual
word embeddings [4.479834103607384]
単語埋め込みに解釈可能性を加えることは、テキスト表現における活発な研究の領域である。
本稿では,従来のPOLARフレームワークを拡張したSensePOLARを提案する。
論文 参考訳(メタデータ) (2023-01-11T20:25:53Z) - Relational Sentence Embedding for Flexible Semantic Matching [86.21393054423355]
文埋め込みの可能性を明らかにするための新しいパラダイムとして,文埋め込み(Sentence Embedding, RSE)を提案する。
RSEは文関係のモデル化に有効で柔軟性があり、一連の最先端の埋め込み手法より優れている。
論文 参考訳(メタデータ) (2022-12-17T05:25:17Z) - Textual Entailment Recognition with Semantic Features from Empirical
Text Representation [60.31047947815282]
テキストが仮説を包含するのは、仮説の真の価値がテキストに従う場合に限る。
本稿では,テキストと仮説のテキストの包含関係を同定する新しい手法を提案する。
本手法では,テキスト・ハイブリッド・ペア間の意味的含意関係を識別できる要素ワイド・マンハッタン距離ベクトルベースの特徴を用いる。
論文 参考訳(メタデータ) (2022-10-18T10:03:51Z) - Lost in Context? On the Sense-wise Variance of Contextualized Word
Embeddings [11.475144702935568]
各単語感覚の文脈的埋め込みが、典型的な事前学習モデルにおける文脈によってどの程度異なるかを定量化する。
単語表現は位置バイアスを受けており、異なる文脈における最初の単語はより類似する傾向にある。
論文 参考訳(メタデータ) (2022-08-20T12:27:25Z) - Contextualized Semantic Distance between Highly Overlapped Texts [85.1541170468617]
テキスト編集や意味的類似性評価といった自然言語処理タスクにおいて、ペア化されたテキストに重複が頻繁に発生する。
本稿では,マスク・アンド・予測戦略を用いてこの問題に対処することを目的とする。
本稿では,最も長い単語列の単語を隣接する単語とみなし,その位置の分布を予測するためにマスク付き言語モデリング(MLM)を用いる。
セマンティックテキスト類似性の実験では、NDDは様々な意味的差異、特に高い重なり合うペアテキストに対してより敏感であることが示されている。
論文 参考訳(メタデータ) (2021-10-04T03:59:15Z) - Studying word order through iterative shuffling [14.530986799844873]
NLPベンチマークタスクの実行には,単語順序エンコードが不可欠であることを示す。
我々は、固定言語モデルの下で最も高い確率を持つ単語の袋を注文する、新しい効率的な手続きであるBISを使用する。
IBISのような推論手順のシャッフルが言語モデリングや制約付き生成にどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2021-09-10T13:27:06Z) - Perturbing Inputs for Fragile Interpretations in Deep Natural Language
Processing [18.91129968022831]
解釈可能性の手法は、医療や金融などの高い分野における信頼できるNLPアプリケーションにとって堅牢である必要がある。
本稿では,入力テキスト上で単純な単語摂動を行うことで,解釈がどのように操作できるかを示す。
論文 参考訳(メタデータ) (2021-08-11T02:07:21Z) - Accurate Word Representations with Universal Visual Guidance [55.71425503859685]
本稿では,視覚指導から従来の単語埋め込みを視覚的に強調する視覚的表現法を提案する。
各単語が多様な関連画像に対応するマルチモーダルシードデータセットから,小型の単語画像辞書を構築する。
12の自然言語理解および機械翻訳タスクの実験により,提案手法の有効性と一般化能力がさらに検証された。
論文 参考訳(メタデータ) (2020-12-30T09:11:50Z) - Comparative Analysis of Word Embeddings for Capturing Word Similarities [0.0]
分散言語表現は、様々な自然言語処理タスクにおいて、言語表現において最も広く使われている技術となっている。
ディープラーニング技術に基づく自然言語処理モデルのほとんどは、単語埋め込みと呼ばれる、すでに訓練済みの分散単語表現を使用している。
適切な単語の埋め込みを選択することは 複雑な作業です なぜなら、投影された埋め込み空間は 人間にとって直感的ではないからです
論文 参考訳(メタデータ) (2020-05-08T01:16:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。