論文の概要: Intent Classification in Question-Answering Using LSTM Architectures
- arxiv url: http://arxiv.org/abs/2001.09330v1
- Date: Sat, 25 Jan 2020 15:07:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 23:59:48.677289
- Title: Intent Classification in Question-Answering Using LSTM Architectures
- Title(参考訳): LSTMアーキテクチャを用いた質問応答のインテント分類
- Authors: Giovanni Di Gennaro, Amedeo Buonanno, Antonio Di Girolamo, Armando
Ospedale, Francesco A.N. Palmieri
- Abstract要約: 質問応答(QA)は自然言語処理(NLP)と人工知能(AI)において最も複雑な問題の一つである。
本稿では,このような分類を効果的かつ効率的に行う方法と,基本プロトタイプ応答器内で適切に利用する方法について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Question-answering (QA) is certainly the best known and probably also one of
the most complex problem within Natural Language Processing (NLP) and
artificial intelligence (AI). Since the complete solution to the problem of
finding a generic answer still seems far away, the wisest thing to do is to
break down the problem by solving single simpler parts. Assuming a modular
approach to the problem, we confine our research to intent classification for
an answer, given a question. Through the use of an LSTM network, we show how
this type of classification can be approached effectively and efficiently, and
how it can be properly used within a basic prototype responder.
- Abstract(参考訳): 質問答え(QA)は間違いなく最もよく知られており、自然言語処理(NLP)と人工知能(AI)において最も複雑な問題の一つである。
一般的な答えを見つけるという問題の完全な解決策はまだ遠いように見えるので、最も賢いのは、単一の単純な部分を解決することで問題を分解することだ。
問題に対するモジュラーなアプローチを仮定すると、質問に答えるために意図的な分類に研究を限定する。
LSTMネットワークを用いて,このような分類を効果的かつ効率的に行う方法と,基本プロトタイプ応答器内で適切に利用する方法を示す。
関連論文リスト
- Crafting Interpretable Embeddings by Asking LLMs Questions [89.49960984640363]
大規模言語モデル(LLM)は、自然言語処理タスクの増大に対して、テキスト埋め込みを急速に改善した。
質問応答埋め込み (QA-Emb) を導入し, 各特徴がLLMに対して質問された質問に対する回答を表す。
我々はQA-Embを用いて、言語刺激に対するfMRIボクセル応答を予測するための解釈可能なモデルを柔軟に生成する。
論文 参考訳(メタデータ) (2024-05-26T22:30:29Z) - Adaptive-RAG: Learning to Adapt Retrieval-Augmented Large Language Models through Question Complexity [59.57065228857247]
Retrieval-augmented Large Language Models (LLMs) は、質問回答(QA)のようなタスクにおける応答精度を高めるための有望なアプローチとして登場した。
本稿では,クエリの複雑さに基づいて,LLMの最適戦略を動的に選択できる適応型QAフレームワークを提案する。
オープンドメインのQAデータセットを用いて、複数のクエリの複雑さを網羅し、QAシステムの全体的な効率性と精度を高めることを示す。
論文 参考訳(メタデータ) (2024-03-21T13:52:30Z) - Answering Ambiguous Questions via Iterative Prompting [84.3426020642704]
オープンドメインの質問応答では、質問のあいまいさのため、複数の妥当な回答が存在する可能性がある。
ひとつのアプローチは、すべての有効な回答を直接予測することですが、これは、妥当性と多様性のバランスに苦労する可能性があります。
本稿では,あいまいな疑問に答える既存手法の欠陥に対処するため,AmbigPromptを提案する。
論文 参考訳(メタデータ) (2023-07-08T04:32:17Z) - Successive Prompting for Decomposing Complex Questions [50.00659445976735]
最近の研究は、大規模言語モデル(LM)の機能を活用して、数ショットで複雑な質問応答を行う。
そこでは、複雑なタスクを単純なタスクに繰り返し分解し、それを解決し、最終解を得るまでプロセスを繰り返します。
我々の最良のモデル(逐次プロンプト付き)は、DROPデータセットの数ショットバージョンにおいて、5%の絶対F1の改善を実現します。
論文 参考訳(メタデータ) (2022-12-08T06:03:38Z) - Deep Algorithmic Question Answering: Towards a Compositionally Hybrid AI
for Algorithmic Reasoning [0.0]
問題の解答におけるアルゴリズム推論の課題は、AIに対する"システム"アプローチに効果的に取り組むことができる、と我々は主張する。
本稿では,QA,Deep Algorithmic Question Answeringのためのアルゴリズム推論手法を提案する。
論文 参考訳(メタデータ) (2021-09-16T14:28:18Z) - A Mutual Information Maximization Approach for the Spurious Solution
Problem in Weakly Supervised Question Answering [60.768146126094955]
弱々しい教師付き質問応答は通常、最終的な答えのみを監督信号として持つ。
偶然に正解を導出する刺激的な解が多数存在するかもしれないが、そのような解の訓練はモデルの性能を損なう可能性がある。
本稿では,質問応答対と予測解間の相互情報の最大化により,このような意味的相関を明示的に活用することを提案する。
論文 参考訳(メタデータ) (2021-06-14T05:47:41Z) - A Semantic-based Method for Unsupervised Commonsense Question Answering [40.18557352036813]
ラベル付きタスクデータに依存しないため、教師なしのコモンセンス質問応答は魅力的である。
教師なしコモンセンス質問応答のためのSemantic-based Question Answering法(SEQA)を提案する。
論文 参考訳(メタデータ) (2021-05-31T08:21:52Z) - Discriminative Learning via Adaptive Questioning [6.378513792050356]
本稿では,候補の能力を複数のカテゴリの1つに最適に分類する,適応的な質問列を設計する問題を考察する。
候補の能力は未知のパラメータとしてモデル化され、質問の難易度とともに、s/h が質問に正しく答えられる可能性を決定する。
論文 参考訳(メタデータ) (2020-04-11T16:50:00Z) - Unsupervised Question Decomposition for Question Answering [102.56966847404287]
本論文では, ワンツーNアン教師付きシーケンスシーケンス(ONUS)のアルゴリズムを提案する。
当初,ドメイン外,マルチホップ開発セットのベースラインが強かったため,HotpotQAでは大きなQA改善が見られた。
論文 参考訳(メタデータ) (2020-02-22T19:40:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。