論文の概要: HeteroQA: Learning towards Question-and-Answering through Multiple
Information Sources via Heterogeneous Graph Modeling
- arxiv url: http://arxiv.org/abs/2112.13597v1
- Date: Mon, 27 Dec 2021 10:16:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-28 15:07:18.551110
- Title: HeteroQA: Learning towards Question-and-Answering through Multiple
Information Sources via Heterogeneous Graph Modeling
- Title(参考訳): HeteroQA:異種グラフモデリングによる複数の情報ソースによる質問・回答の学習
- Authors: Shen Gao, Yuchi Zhang, Yongliang Wang, Yang Dong, Xiuying Chen,
Dongyan Zhao and Rui Yan
- Abstract要約: コミュニティ質問回答(Community Question Answering, CQA)は、Eコマースやオンラインユーザコミュニティなど、多くのシナリオで利用することができる、明確に定義されたタスクである。
CQAの手法のほとんどは、知識を抽出し、ユーザの質問に答えるために記事やウィキペディアしか含まない。
ユーザコミュニティに複数の情報ソース(MIS)を組み込んで回答を自動的に生成する問合せ対応の異種グラフ変換器を提案する。
- 参考スコア(独自算出の注目度): 50.39787601462344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Community Question Answering (CQA) is a well-defined task that can be used in
many scenarios, such as E-Commerce and online user community for special
interests.
In these communities, users can post articles, give comment, raise a question
and answer it.
These data form the heterogeneous information sources where each information
source have their own special structure and context (comments attached to an
article or related question with answers).
Most of the CQA methods only incorporate articles or Wikipedia to extract
knowledge and answer the user's question.
However, various types of information sources in the community are not fully
explored by these CQA methods and these multiple information sources (MIS) can
provide more related knowledge to user's questions.
Thus, we propose a question-aware heterogeneous graph transformer to
incorporate the MIS in the user community to automatically generate the answer.
To evaluate our proposed method, we conduct the experiments on two datasets:
$\text{MSM}^{\text{plus}}$ the modified version of benchmark dataset MS-MARCO
and the AntQA dataset which is the first large-scale CQA dataset with four
types of MIS.
Extensive experiments on two datasets show that our model outperforms all the
baselines in terms of all the metrics.
- Abstract(参考訳): コミュニティ質問回答(Community Question Answering, CQA)は、Eコマースやオンラインユーザコミュニティなど、多くのシナリオで利用することができる、明確に定義されたタスクである。
これらのコミュニティでは、ユーザーは記事の投稿、コメントの投稿、質問の募集、それに答えることができる。
これらのデータは、各情報ソースが独自の特殊構造と文脈(記事や関連質問に添付された記事)を持つ異種情報ソースを形成する。
CQAの手法のほとんどは、知識を抽出し、ユーザの質問に答えるために記事やウィキペディアしか含まない。
しかし、コミュニティ内の様々な情報ソースはこれらのCQA手法によって完全には探索されておらず、これらの複数の情報ソース(MIS)は、ユーザの質問にもっと関連性のある知識を提供することができる。
そこで本研究では,MISをユーザコミュニティに組み込んで回答を自動的に生成する問合せ対応の異種グラフ変換器を提案する。
提案手法を評価するために、ベンチマークデータセットMS-MARCOの修正版である$\text{MSM}^{\text{plus}}と、4種類のMISを持つ最初の大規模CQAデータセットであるAntQAデータセットの2つのデータセットで実験を行った。
2つのデータセットに対する大規模な実験は、我々のモデルがすべての指標ですべてのベースラインを上回っていることを示している。
関連論文リスト
- CT2C-QA: Multimodal Question Answering over Chinese Text, Table and Chart [26.54501344351476]
C$textT2$C-QAは中国の推論に基づくQAデータセットであり、テキスト、テーブル、チャートの広範なコレクションを含んでいる。
我々のデータセットは、実際のWebページをシミュレートし、マルチモーダルデータを用いてモデルを分析し、推論する能力の優れたテストとして役立ちます。
論文 参考訳(メタデータ) (2024-10-28T18:13:14Z) - Language Models Benefit from Preparation with Elicited Knowledge [0.38233569758620056]
ゼロショット・チェーン・オブ・シンキング(CoT)アプローチは言語モデル(LM)による質問応答(QA)によく使用される。
本稿では,LMの2つのインスタンスを使用する,PreprePと呼ばれる単純な汎用的プロンプト手法を提案する。
PrePは、ユーザのドメイン知識から独立して設計されており、特別なプロンプトエンジニアリングを必要とせずに、様々なQAタスクに適用できる。
論文 参考訳(メタデータ) (2024-09-02T15:58:27Z) - Multi-LLM QA with Embodied Exploration [55.581423861790945]
未知環境における質問応答におけるマルチエンボディードLEMエクスプローラ(MELE)の利用について検討する。
複数のLSMベースのエージェントが独立して家庭用環境に関する質問を探索し、回答する。
各問合せに対して1つの最終回答を生成するために,異なるアグリゲーション手法を解析する。
論文 参考訳(メタデータ) (2024-06-16T12:46:40Z) - QAGCF: Graph Collaborative Filtering for Q&A Recommendation [58.21387109664593]
質問と回答(Q&A)プラットフォームは通常、ユーザの知識獲得のニーズを満たすために質問と回答のペアを推奨する。
これにより、ユーザの振る舞いがより複雑になり、Q&Aレコメンデーションの2つの課題が提示される。
グラフニューラルネットワークモデルであるQ&Answer Graph Collaborative Filtering (QAGCF)を導入する。
論文 参考訳(メタデータ) (2024-06-07T10:52:37Z) - S2M: Converting Single-Turn to Multi-Turn Datasets for Conversational
Question Answering [16.930522435912717]
本稿では,シングルターンデータセットをマルチターンデータセットに変換する新しい手法を提案する。
S2Mは応募時にQuACのリーダーボードで1位にランクインした。
論文 参考訳(メタデータ) (2023-12-27T10:41:18Z) - UNK-VQA: A Dataset and a Probe into the Abstention Ability of Multi-modal Large Models [55.22048505787125]
本稿ではUNK-VQAと呼ばれる包括的データセットを提案する。
まず、画像または疑問について意図的に摂動することで、既存のデータを拡大する。
そこで我々は,新たなマルチモーダル大規模モデルのゼロショット性能と少数ショット性能を広範囲に評価した。
論文 参考訳(メタデータ) (2023-10-17T02:38:09Z) - MQAG: Multiple-choice Question Answering and Generation for Assessing
Information Consistency in Summarization [55.60306377044225]
最先端の要約システムは高度に流動的な要約を生成することができる。
しかし、これらの要約には、情報源に存在しない事実上の矛盾や情報が含まれている可能性がある。
本稿では,ソース情報と要約情報を直接比較する,標準的な情報理論に基づく代替手法を提案する。
論文 参考訳(メタデータ) (2023-01-28T23:08:25Z) - Question Answering Survey: Directions, Challenges, Datasets, Evaluation
Matrices [0.0]
QA分野の研究の方向性は,質問の種類,回答の種類,根拠の源泉,モデリングアプローチに基づいて分析される。
これに続き、自動質問生成、類似性検出、言語に対する低リソース可用性など、この分野のオープンな課題が続きます。
論文 参考訳(メタデータ) (2021-12-07T08:53:40Z) - SYGMA: System for Generalizable Modular Question Answering OverKnowledge
Bases [57.89642289610301]
SYGMAは、複数の知識ベースと複数のリアソニングタイプにまたがる汎用化を容易にするモジュラーアプローチである。
本システムの有効性を,DBpediaとWikidataの2つの異なる知識ベースに属するデータセットを用いて評価することで実証する。
論文 参考訳(メタデータ) (2021-09-28T01:57:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。