論文の概要: Utilizing Background Knowledge for Robust Reasoning over Traffic
Situations
- arxiv url: http://arxiv.org/abs/2212.07798v1
- Date: Sun, 4 Dec 2022 09:17:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 18:48:24.402731
- Title: Utilizing Background Knowledge for Robust Reasoning over Traffic
Situations
- Title(参考訳): 交通状況に対するロバスト推論のための背景知識の利用
- Authors: Jiarui Zhang, Filip Ilievski, Aravinda Kollaa, Jonathan Francis,
Kaixin Ma, Alessandro Oltramari
- Abstract要約: 我々は、インテリジェントトランスポーテーションの補完的な研究側面である交通理解に焦点を当てる。
本研究は,豊富なコモンセンス知識を前提として,テキストベースの手法とデータセットを対象とする。
交通状況に対するゼロショットQAには3つの知識駆動アプローチを採用しています。
- 参考スコア(独自算出の注目度): 63.45021731775964
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding novel situations in the traffic domain requires an intricate
combination of domain-specific and causal commonsense knowledge. Prior work has
provided sufficient perception-based modalities for traffic monitoring, in this
paper, we focus on a complementary research aspect of Intelligent
Transportation: traffic understanding. We scope our study to text-based methods
and datasets given the abundant commonsense knowledge that can be extracted
using language models from large corpus and knowledge graphs. We adopt three
knowledge-driven approaches for zero-shot QA over traffic situations, based on
prior natural language inference methods, commonsense models with knowledge
graph self-supervision, and dense retriever-based models. We constructed two
text-based multiple-choice question answering sets: BDD-QA for evaluating
causal reasoning in the traffic domain and HDT-QA for measuring the possession
of domain knowledge akin to human driving license tests. Among the methods,
Unified-QA reaches the best performance on the BDD-QA dataset with the
adaptation of multiple formats of question answers. Language models trained
with inference information and commonsense knowledge are also good at
predicting the cause and effect in the traffic domain but perform badly at
answering human-driving QA sets. For such sets, DPR+Unified-QA performs the
best due to its efficient knowledge extraction.
- Abstract(参考訳): 交通領域における新しい状況を理解するには、ドメイン特化知識と因果コモンセンス知識の複雑な組み合わせが必要である。
先行研究は交通監視に十分な認識に基づくモダリティを提供してきたが,本稿では,インテリジェントトランスポーテーションの補完的な研究側面である交通理解に焦点をあてる。
本研究では,大規模コーパスと知識グラフから言語モデルを用いて抽出できる豊富な常識知識をテキストベースの手法とデータセットに適用する。
我々は,従来の自然言語推論手法,知識グラフを用いたコモンセンスモデル,高密度検索モデルに基づく,交通状況に対するゼロショットQAのための3つの知識駆動アプローチを採用する。
我々は,交通領域における因果推論を評価するBDD-QAと,運転免許試験に類似したドメイン知識の所有を計測するHDT-QAの2つのテキストベースの質問応答セットを構築した。
メソッドの中では、Unified-QAがBDD-QAデータセット上で最高のパフォーマンスに達し、複数の形式の質問応答が適応される。
推論情報とコモンセンス知識でトレーニングされた言語モデルは、トラフィックドメインの原因と効果を予測するのにも適していますが、人間運転のqaセットに応答するのには役立ちます。
このような集合に対して、DPR+Unified-QAはその効率的な知識抽出のために最善を尽くす。
関連論文リスト
- Prompting Video-Language Foundation Models with Domain-specific Fine-grained Heuristics for Video Question Answering [71.62961521518731]
HeurVidQAは、ドメイン固有のエンティティアクションを利用して、事前訓練されたビデオ言語基盤モデルを洗練するフレームワークである。
我々のアプローチでは、これらのモデルを暗黙の知識エンジンとして扱い、ドメイン固有のエンティティアクションプロンサを使用して、推論を強化する正確な手がかりにモデルを焦点を向けます。
論文 参考訳(メタデータ) (2024-10-12T06:22:23Z) - FusionMind -- Improving question and answering with external context
fusion [0.0]
事前学習言語モデル(LM)と知識グラフ(KG)を用いて,文脈知識が質問応答目標(QA)に与える影響を検討した。
知識事実のコンテキストを取り入れることで、パフォーマンスが大幅に向上することがわかった。
このことは、文脈的知識事実の統合が、質問応答のパフォーマンスを高める上でより影響があることを示唆している。
論文 参考訳(メタデータ) (2023-12-31T03:51:31Z) - Bridged-GNN: Knowledge Bridge Learning for Effective Knowledge Transfer [65.42096702428347]
グラフニューラルネットワーク(GNN)は、隣接するノードから情報を集約する。
知識ブリッジ学習(KBL)は、対象ドメインに対する知識強化後部分布を学習する。
Bridged-GNNには、Bridged-Graphを構築するためのAdaptive Knowledge Retrievalモジュールと、Graph Knowledge Transferモジュールが含まれている。
論文 参考訳(メタデータ) (2023-08-18T12:14:51Z) - A Study of Situational Reasoning for Traffic Understanding [63.45021731775964]
トラフィック領域における状況推論のための3つの新しいテキストベースのタスクを考案する。
先行作業における言語推論タスクにまたがる一般化能力を示す知識強化手法を4つ採用する。
本稿では,データ分割におけるモデル性能の詳細な解析を行い,モデル予測を分類的に検討する。
論文 参考訳(メタデータ) (2023-06-05T01:01:12Z) - FiTs: Fine-grained Two-stage Training for Knowledge-aware Question
Answering [47.495991137191425]
本稿では, KAQAシステム性能を向上させるための微細な2段階トレーニングフレームワーク (FiT) を提案する。
第1段階は、PLMとKGからの表現の整列を目標とし、それらの間のモダリティギャップを埋めることである。
第2段階はナレッジ・アウェア・ファインチューニングと呼ばれ、モデルの共同推論能力の向上を目的としている。
論文 参考訳(メタデータ) (2023-02-23T06:25:51Z) - QASem Parsing: Text-to-text Modeling of QA-based Semantics [19.42681342441062]
本稿では,QA-SRL,QANom,QADiscourseの3つの意味的タスクについて考察する。
最初に統合されたQASem解析ツールをリリースし、下流アプリケーションに実用的です。
論文 参考訳(メタデータ) (2022-05-23T15:56:07Z) - Augmenting Pre-trained Language Models with QA-Memory for Open-Domain
Question Answering [38.071375112873675]
質問応答型エンコーダデコーダモデルの提案と事前学習戦略について述べる。
これにより、シングルホップのQAタスクにおいて、以前のQA検索方法よりも優れたエンドツーエンドシステムが得られる。
論文 参考訳(メタデータ) (2022-04-10T02:33:00Z) - QA-GNN: Reasoning with Language Models and Knowledge Graphs for Question
Answering [122.84513233992422]
学習済み言語モデル(LM)と知識グラフ(KG)の知識を用いて質問に答える問題に対処する新しいモデルであるQA-GNNを提案する。
既存のLMとLM+KGモデルに対する改善と、解釈可能で構造化された推論を行う能力を示しています。
論文 参考訳(メタデータ) (2021-04-13T17:32:51Z) - KRISP: Integrating Implicit and Symbolic Knowledge for Open-Domain
Knowledge-Based VQA [107.7091094498848]
VQAの最も難しい質問の1つは、質問に答えるために画像に存在しない外部の知識を必要とする場合です。
本研究では,解答に必要な知識が与えられたり記入されたりしないオープンドメイン知識を,トレーニング時やテスト時にも検討する。
知識表現と推論には2つのタイプがあります。
まず、トランスベースのモデルで教師なし言語事前トレーニングと教師付きトレーニングデータから効果的に学ぶことができる暗黙的な知識。
論文 参考訳(メタデータ) (2020-12-20T20:13:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。