論文の概要: Extracting Similar Questions From Naturally-occurring Business
Conversations
- arxiv url: http://arxiv.org/abs/2206.01585v1
- Date: Fri, 3 Jun 2022 14:13:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 12:59:29.514803
- Title: Extracting Similar Questions From Naturally-occurring Business
Conversations
- Title(参考訳): 自然発生型ビジネス会話から同様の質問を抽出する
- Authors: Xiliang Zhu, David Rossouw, Shayna Gardiner, Simon Corston-Oliver
- Abstract要約: 実世界の英語ビジネス会話において意味論的に類似した質問を識別する作業において,既成のコンテキスト埋め込みモデルが埋め込み空間に狭い分布を持つことを示す。
本稿では,データ探索や従業員のコーチングに使用可能な可視化手法として,適切に調整された表現と,ビジネスユーザに対する関心の質問をグループ化するための少数の例を挙げる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Pre-trained contextualized embedding models such as BERT are a standard
building block in many natural language processing systems. We demonstrate that
the sentence-level representations produced by some off-the-shelf
contextualized embedding models have a narrow distribution in the embedding
space, and thus perform poorly for the task of identifying semantically similar
questions in real-world English business conversations. We describe a method
that uses appropriately tuned representations and a small set of exemplars to
group questions of interest to business users in a visualization that can be
used for data exploration or employee coaching.
- Abstract(参考訳): BERTのような事前訓練されたコンテキスト型埋め込みモデルは、多くの自然言語処理システムにおいて標準のビルディングブロックである。
実世界の英語ビジネス会話において意味論的に類似した質問を識別する作業において,既成の文脈埋め込みモデルによって生成された文レベルの表現が,埋め込み空間に狭い分布を持つことを示す。
本稿では,データ探索や従業員のコーチングに使用可能な可視化手法として,適切に調整された表現と,ビジネスユーザに対する関心の質問をグループ化するための少数の例を挙げる。
関連論文リスト
- Evaluating Large Language Models in Semantic Parsing for Conversational
Question Answering over Knowledge Graphs [6.869834883252353]
本稿では,この課題に対して事前訓練を受けていない大規模言語モデルの性能を評価する。
その結果,大規模言語モデルでは対話からグラフクエリを生成することができることがわかった。
論文 参考訳(メタデータ) (2024-01-03T12:28:33Z) - Thread of Thought Unraveling Chaotic Contexts [133.24935874034782]
思考のスレッド(ThoT)戦略は、人間の認知プロセスからインスピレーションを得ている。
実験では、他のプロンプト技術と比較して、ThoTは推論性能を著しく改善する。
論文 参考訳(メタデータ) (2023-11-15T06:54:44Z) - Get the gist? Using large language models for few-shot
decontextualization [3.2271521193192734]
本稿では,大規模言語モデルを用いたデコンテクスト化手法を提案する。
本手法は,少数の例のみを用いて,複数の領域で実行可能な性能を実現する。
論文 参考訳(メタデータ) (2023-10-10T02:00:00Z) - Diffusion Models for Zero-Shot Open-Vocabulary Segmentation [97.25882784890456]
本稿では,ゼロショット開語彙セグメンテーションのための新しい手法を提案する。
我々は,大規模テキスト・画像拡散モデルの生成特性を利用して,支援画像の集合をサンプリングする。
提案手法は,既存の事前学習型自己教師型特徴抽出器を自然言語で抽出するのに有効であることを示す。
論文 参考訳(メタデータ) (2023-06-15T17:51:28Z) - Topics in Contextualised Attention Embeddings [7.6650522284905565]
最近の研究で、言語モデルから単語レベルの文脈表現をクラスタ化することは、潜在ディリクレ割当から単語の潜在トピックで見つかる単語クラスタをエミュレートすることを示した。
重要な疑問は、潜在トピックをモデル化するように明示的に設計されていない言語モデルにおいて、そのような話題の単語クラスタが、クラスタリングを通じてどのように自動的に形成されるかである。
BERT と DistilBERT を用いて,このような話題クラスタをモデル化する上で,アテンションフレームワークが重要な役割を担っていることがわかった。
論文 参考訳(メタデータ) (2023-01-11T07:26:19Z) - Prompting Language Models for Linguistic Structure [73.11488464916668]
本稿では,言語構造予測タスクに対する構造化プロンプト手法を提案する。
提案手法は, 音声タグ付け, 名前付きエンティティ認識, 文チャンキングについて評価する。
PLMはタスクラベルの事前知識を事前学習コーパスに漏えいすることで有意な事前知識を含むが、構造化プロンプトは任意のラベルで言語構造を復元することも可能である。
論文 参考訳(メタデータ) (2022-11-15T01:13:39Z) - Actuarial Applications of Natural Language Processing Using
Transformers: Case Studies for Using Text Features in an Actuarial Context [0.0]
このチュートリアルは、テキストデータをアクチュアリ分類と回帰タスクに組み込むことを実証する。
主な焦点はトランスフォーマーモデルを用いた手法である。
このケーススタディは、多言語設定と長い入力シーケンスに関連する課題に取り組む。
論文 参考訳(メタデータ) (2022-06-04T15:39:30Z) - Analyzing the Limits of Self-Supervision in Handling Bias in Language [52.26068057260399]
我々は、言語モデルが、認識、識別、抽出、言い換えの4つのタスクのセマンティクスをいかにうまく捉えているかを評価する。
分析の結果,言語モデルでは,ジェンダーや政治的アフィリエイトなど,様々なバイアス次元にまたがって,これらのタスクを広範囲にわたって実行することが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-16T05:36:08Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - A Survey on Contextual Embeddings [48.04732268018772]
文脈埋め込みは、各単語を文脈に基づく表現として割り当て、様々な文脈にまたがる単語の使用を捉え、言語間で伝達される知識を符号化する。
本稿では,既存の文脈埋め込みモデル,言語間多言語事前学習,下流タスクへの文脈埋め込みの適用,モデル圧縮,モデル解析についてレビューする。
論文 参考訳(メタデータ) (2020-03-16T15:22:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。