論文の概要: SeMantic AnsweR Type prediction task (SMART) at ISWC 2020 Semantic Web
Challenge
- arxiv url: http://arxiv.org/abs/2012.00555v1
- Date: Tue, 1 Dec 2020 15:02:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-31 03:50:23.400140
- Title: SeMantic AnsweR Type prediction task (SMART) at ISWC 2020 Semantic Web
Challenge
- Title(参考訳): Semantic AnsweR Type Prediction Task (SMART) at ISWC 2020 Semantic Web Challenge (英語)
- Authors: Nandana Mihindukulasooriya and Mohnish Dubey and Alfio Gliozzo and
Jens Lehmann and Axel-Cyrille Ngonga Ngomo and Ricardo Usbeck
- Abstract要約: Semantic AnsweR Type予測タスクは、ISWC 2020の課題の一部だった。
質問タイプと回答タイプの予測は、知識ベース回答システムにおいて重要な役割を果たす。
より具体的には、自然言語における問題を考えると、SMARTチャレンジの課題は、ターゲットオントロジーを用いて答えの型を予測することである。
- 参考スコア(独自算出の注目度): 11.300556727921155
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Each year the International Semantic Web Conference accepts a set of Semantic
Web Challenges to establish competitions that will advance the state of the art
solutions in any given problem domain. The SeMantic AnsweR Type prediction task
(SMART) was part of ISWC 2020 challenges. Question type and answer type
prediction can play a key role in knowledge base question answering systems
providing insights that are helpful to generate correct queries or rank the
answer candidates. More concretely, given a question in natural language, the
task of SMART challenge is, to predict the answer type using a target ontology
(e.g., DBpedia or Wikidata).
- Abstract(参考訳): 毎年、国際セマンティックウェブ会議(international semantic web conference)は、特定の問題領域におけるアートソリューションの状態を前進させるコンペティションを確立するための一連のセマンティックwebチャレンジを受け入れている。
Semantic AnsweR Type予測タスク(SMART)は、ISWC 2020の課題の一部であった。
質問タイプと回答タイプの予測は、正しい質問を生成するのに役立つ洞察を提供する知識ベース質問応答システムにおいて重要な役割を果たす。
より具体的には、自然言語の質問が与えられた場合、SMARTチャレンジのタスクは、ターゲットオントロジー(DBpediaやWikidataなど)を使って答えの型を予測することである。
関連論文リスト
- CLARINET: Augmenting Language Models to Ask Clarification Questions for Retrieval [52.134133938779776]
CLARINETは,回答が正しい候補の確実性を最大化する質問を選択することで,情報的明確化を問うシステムである。
提案手法は,大規模言語モデル(LLM)を検索分布の条件付きで拡張し,各ターンで真の候補のランクを最大化する問題を生成する。
論文 参考訳(メタデータ) (2024-04-28T18:21:31Z) - IGLU 2022: Interactive Grounded Language Understanding in a
Collaborative Environment at NeurIPS 2022 [63.07251290802841]
協調環境における対話型接地言語理解(IGLU: Interactive Grounded Language Understanding)を提案する。
競争の第一の目的は、対話型エンボディエージェントの開発方法の問題にアプローチすることである。
この研究課題は、NeurIPSコミュニティと非常に関係のある2つの研究分野に自然に関連があるが、限定的ではない。
論文 参考訳(メタデータ) (2022-05-27T06:12:48Z) - Semantic Answer Type and Relation Prediction Task (SMART 2021) [11.868068853671033]
Semantic Answer Type and Relation Prediction Taskは、ISWC 2021 Semantic Webの課題のひとつだ。
本稿では,タスク記述,ベンチマークデータセット,評価指標について論じる。
論文 参考訳(メタデータ) (2021-12-07T16:17:41Z) - Auto-KWS 2021 Challenge: Task, Datasets, and Baselines [63.82759886293636]
Auto-KWS 2021チャレンジは、カスタマイズされたキーワードスポッティングタスクに機械学習を適用するプロセスを自動化するために、自動機械学習(AutoML)ソリューションを呼び出します。
この課題は、ターゲットデバイスが特定のキーワードで登録された話者によってのみ覚醒できる、カスタマイズされたキーワードスポッティングの問題に焦点を当てている。
論文 参考訳(メタデータ) (2021-03-31T14:56:48Z) - NeurIPS 2020 EfficientQA Competition: Systems, Analyses and Lessons
Learned [122.429985063391]
我々はNeurIPS 2020のEfficientQAコンペティションのモチベーションと組織について述べる。
コンペでは、システムは自然言語質問を入力として受け取り、自然言語応答を返すオープンドメイン質問応答(qa)に焦点を当てた。
論文 参考訳(メタデータ) (2021-01-01T01:24:34Z) - A Clarifying Question Selection System from NTES_ALONG in Convai3
Challenge [8.656503175492375]
本稿では,検索指向会話型AI (SCAI) EMNLPワークショップにおけるClariQチャレンジへのNetEase Game AI Labチームの参加について述べる。
この課題は、解明された質問を理解し、生成できる完全な会話情報検索システムを求めるものである。
本稿では,回答理解,質問のリコール,質問ランキングの明確化からなる質問選択システムを提案する。
論文 参考訳(メタデータ) (2020-10-27T11:22:53Z) - ConvAI3: Generating Clarifying Questions for Open-Domain Dialogue
Systems (ClariQ) [64.60303062063663]
本論文では,対話システムに対する質問の明確化に関する課題について詳述する(ClariQ)。
このチャレンジは、2020年のSearch Oriented Conversational AI (SCAI) EMNLPワークショップで、ConvAI3(Conversational AI Challenge series)の一部として組織されている。
論文 参考訳(メタデータ) (2020-09-23T19:48:02Z) - Analysing Affective Behavior in the First ABAW 2020 Competition [49.90617840789334]
ABAW(Affective Behavior Analysis in-the-Wild) 2020コンペティションは、3つの主要な行動タスクの自動分析を目的とした最初のコンペティションである。
アルゼンチンのブエノスアイレスで2020年5月に開催されたIEEE Face and Gesture Recognitionと共同で開催されるこのコンペティションについて説明する。
評価指標を概説し,ベースラインシステムとトップ3の実施するチームの方法論をチャレンジ毎に提示し,その結果を最終的に提示する。
論文 参考訳(メタデータ) (2020-01-30T15:41:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。