論文の概要: Activity report analysis with automatic single or multispan answer
extraction
- arxiv url: http://arxiv.org/abs/2209.09316v1
- Date: Fri, 9 Sep 2022 06:33:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 17:22:10.891650
- Title: Activity report analysis with automatic single or multispan answer
extraction
- Title(参考訳): 単一回答・複数回答自動抽出による活動報告分析
- Authors: Ravi Choudhary, Arvind Krishna Sridhar, Erik Visser
- Abstract要約: 我々は,質問内容や質問内容に応じて,単一回答と複数回答のペアによる新しいスマートホーム環境データセットを作成する。
実験の結果,提案手法はデータセット上での最先端QAモデルよりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 0.21485350418225244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the era of loT (Internet of Things) we are surrounded by a plethora of Al
enabled devices that can transcribe images, video, audio, and sensors signals
into text descriptions. When such transcriptions are captured in activity
reports for monitoring, life logging and anomaly detection applications, a user
would typically request a summary or ask targeted questions about certain
sections of the report they are interested in. Depending on the context and the
type of question asked, a question answering (QA) system would need to
automatically determine whether the answer covers single-span or multi-span
text components. Currently available QA datasets primarily focus on single span
responses only (such as SQuAD[4]) or contain a low proportion of examples with
multiple span answers (such as DROP[3]). To investigate automatic selection of
single/multi-span answers in the use case described, we created a new smart
home environment dataset comprised of questions paired with single-span or
multi-span answers depending on the question and context queried. In addition,
we propose a RoBERTa[6]-based multiple span extraction question answering
(MSEQA) model returning the appropriate answer span for a given question. Our
experiments show that the proposed model outperforms state-of-the-art QA models
on our dataset while providing comparable performance on published individual
single/multi-span task datasets.
- Abstract(参考訳): loT(モノのインターネット)の時代、私たちは、画像、ビデオ、オーディオ、センサーの信号をテキスト記述に書き起こすことができる、Al対応デバイスが多用されている。
このような書き起こしが監視、ライフログ、異常検出アプリケーションのためのアクティビティレポートに記録されると、ユーザは通常、要約を要求するか、関心のあるレポートの特定のセクションについてターゲットとする質問をする。
質問内容や質問の種類に応じて、質問応答(QA)システムは、回答がシングルスパンかマルチスパンのテキストコンポーネントをカバーするかどうかを自動的に判断する必要がある。
現在利用可能なQAデータセットは、主にシングルスパン応答(SQuAD[4]など)のみに焦点を当てているか、あるいは複数のスパン応答(DROP[3]など)を持つサンプルの割合が低い。
実例では, 単一/マルチスパン回答の自動選択について検討するため, 質問内容や質問内容に応じて, 単一スパン回答と複数スパン回答を組み合わせたスマートホーム環境データセットを構築した。
さらに,RoBERTa[6]に基づくマルチスパン抽出質問応答(MSEQA)モデルを提案する。
実験の結果,提案手法はデータセット上での最先端QAモデルよりも優れており,個々のタスクデータセットに対して同等のパフォーマンスを提供する。
関連論文リスト
- Multi-LLM QA with Embodied Exploration [55.581423861790945]
未知環境における質問応答におけるマルチエンボディードLEMエクスプローラ(MELE)の利用について検討する。
複数のLSMベースのエージェントが独立して家庭用環境に関する質問を探索し、回答する。
各問合せに対して1つの最終回答を生成するために,異なるアグリゲーション手法を解析する。
論文 参考訳(メタデータ) (2024-06-16T12:46:40Z) - A Dataset of Open-Domain Question Answering with Multiple-Span Answers [11.291635421662338]
マルチスパン回答抽出(Multi-span answer extract)は、マルチスパン質問応答(MSQA)のタスクとしても知られ、現実世界のアプリケーションにとって重要な課題である。
中国語ではMSQAベンチマークが公開されていない。
CLEANは、中国の総合的なマルチスパン質問応答データセットである。
論文 参考訳(メタデータ) (2024-02-15T13:03:57Z) - Long-form Question Answering: An Iterative Planning-Retrieval-Generation
Approach [28.849548176802262]
長文質問応答(LFQA)は,段落の形で詳細な回答を生成するため,課題となる。
本稿では,反復計画,検索,生成を伴うLFQAモデルを提案する。
我々のモデルはLFQAタスクの様々なテキストおよび実測値の最先端モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-15T21:22:27Z) - SEMQA: Semi-Extractive Multi-Source Question Answering [94.04430035121136]
本稿では,複数ソースを半抽出的に要約することで,複数の質問に答える新しいQAタスクを提案する。
この種の最初のデータセットであるQuoteSumを作成し、自然および生成された質問に対する人間による半抽出的な回答を提示する。
論文 参考訳(メタデータ) (2023-11-08T18:46:32Z) - UNK-VQA: A Dataset and a Probe into the Abstention Ability of Multi-modal Large Models [55.22048505787125]
本稿ではUNK-VQAと呼ばれる包括的データセットを提案する。
まず、画像または疑問について意図的に摂動することで、既存のデータを拡大する。
そこで我々は,新たなマルチモーダル大規模モデルのゼロショット性能と少数ショット性能を広範囲に評価した。
論文 参考訳(メタデータ) (2023-10-17T02:38:09Z) - LIQUID: A Framework for List Question Answering Dataset Generation [17.86721740779611]
ラベルなしコーパスからリストQAデータセットを生成するためのフレームワークであるLIQUIDを提案する。
まず、ウィキペディアまたはPubMedからの節を要約に変換し、要約されたテキストから名前付きエンティティを候補回答として抽出する。
次に、抽出されたエンティティと元のパスを含む既成の質問生成器を用いて質問を生成する。
合成データを用いて,MultiSpanQAでは5.0点,Quorefでは1.9点,BioASQベンチマークでは2.8点の精度で,過去のベストリストQAモデルの性能を大幅に向上させた。
論文 参考訳(メタデータ) (2023-02-03T12:42:45Z) - MQAG: Multiple-choice Question Answering and Generation for Assessing
Information Consistency in Summarization [55.60306377044225]
最先端の要約システムは高度に流動的な要約を生成することができる。
しかし、これらの要約には、情報源に存在しない事実上の矛盾や情報が含まれている可能性がある。
本稿では,ソース情報と要約情報を直接比較する,標準的な情報理論に基づく代替手法を提案する。
論文 参考訳(メタデータ) (2023-01-28T23:08:25Z) - GooAQ: Open Question Answering with Diverse Answer Types [63.06454855313667]
さまざまな回答型を持つ大規模データセットであるGooAQを紹介する。
このデータセットには500万の質問と300万の回答が含まれている。
論文 参考訳(メタデータ) (2021-04-18T05:40:39Z) - ParaQA: A Question Answering Dataset with Paraphrase Responses for
Single-Turn Conversation [5.087932295628364]
ParaQAは知識グラフ(KG)上の1ターン会話のための複数のパラフレーズ応答を持つデータセットである
データセットは半自動的なフレームワークを使って、バックトランスレーションのようなテクニックを使って、さまざまな回答のパラフレージングを生成する。
論文 参考訳(メタデータ) (2021-03-13T18:53:07Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。