論文の概要: Inside ASCENT: Exploring a Deep Commonsense Knowledge Base and its Usage
in Question Answering
- arxiv url: http://arxiv.org/abs/2105.13662v1
- Date: Fri, 28 May 2021 08:17:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-31 19:23:17.430192
- Title: Inside ASCENT: Exploring a Deep Commonsense Knowledge Base and its Usage
in Question Answering
- Title(参考訳): ASCENTの内部: 質問応答における深層コモンセンス知識ベースとその利用
- Authors: Tuan-Phong Nguyen, Simon Razniewski, Gerhard Weikum
- Abstract要約: ASCENTは、Webコンテンツからコモンセンスアサーションを抽出し、統合するための、完全に自動化された方法論である。
このデモでは、ユーザが構築プロセスを理解し、コンテンツを探索し、質問応答のユースケースに与える影響を観察するWebポータルを提示する。
- 参考スコア(独自算出の注目度): 25.385862319865335
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: ASCENT is a fully automated methodology for extracting and consolidating
commonsense assertions from web contents (Nguyen et al., WWW 2021). It advances
traditional triple-based commonsense knowledge representation by capturing
semantic facets like locations and purposes, and composite concepts, i.e.,
subgroups and related aspects of subjects. In this demo, we present a web
portal that allows users to understand its construction process, explore its
content, and observe its impact in the use case of question answering. The demo
website and an introductory video are both available online.
- Abstract(参考訳): ASCENTはウェブコンテンツ(Nguyen et al., WWW 2021)からコモンセンスアサーションを抽出・統合するための完全自動化手法である。
それは、位置や目的のような意味的な面を捉え、また、サブグループや関連する主題の概念を合成することによって、伝統的なトリプルベースコモンセンス知識表現を推し進める。
このデモでは、ユーザが構築プロセスを理解し、コンテンツを探索し、質問応答のユースケースにおけるその影響を観察するWebポータルを提示する。
デモサイトと紹介ビデオはどちらもオンラインで公開されている。
関連論文リスト
- Semantic Web: Past, Present, and Future [5.91878395695545]
私たちは、セマンティックウェブの古典的な概念と基礎を振り返る。
最近の概念には、証明、セキュリティ、信頼などが含まれる。
セマンティックウェブの今後の方向性を概観する。
論文 参考訳(メタデータ) (2024-12-22T20:58:14Z) - Query-centric Audio-Visual Cognition Network for Moment Retrieval, Segmentation and Step-Captioning [56.873534081386]
ビデオ検索、モーメント検索、モーメントセグメンテーション、ステップキャプションを含む新しいトピックHIRESTが紹介されている。
3つのタスクに対して信頼性の高いマルチモーダル表現を構築するために,クエリ中心の音声視覚認知ネットワークを提案する。
これにより、ユーザが優先するコンテンツを認識し、3つのタスクに対してクエリ中心の音声視覚表現を実現することができる。
論文 参考訳(メタデータ) (2024-12-18T06:43:06Z) - Health Misinformation Detection in Web Content via Web2Vec: A Structural-, Content-based, and Context-aware Approach based on Web2Vec [3.299010876315217]
我々は、Webページの信頼性を評価するために、構造、コンテンツ、コンテキストベースの機能を研究するための研究の余地がまだあるWebページコンテンツに焦点を当てている。
本研究の目的は, フィッシングWebページ検出(Web2Vec)の文脈で最近提案されたWebページの埋め込み表現から始まる, 深層学習モデルに関連する機能の有効性を検討することである。
論文 参考訳(メタデータ) (2024-07-05T10:33:15Z) - Augmented Commonsense Knowledge for Remote Object Grounding [67.30864498454805]
エージェントナビゲーションを改善するための時間的知識グラフとして,コモンセンス情報を活用するための拡張コモンセンス知識モデル(ACK)を提案する。
ACKは知識グラフ対応のクロスモーダルとコンセプトアグリゲーションモジュールで構成され、視覚的表現と視覚的テキストデータアライメントを強化する。
我々は、より正確な局所的な行動予測につながるコモンセンスに基づく意思決定プロセスのための新しいパイプラインを追加します。
論文 参考訳(メタデータ) (2024-06-03T12:12:33Z) - SOK-Bench: A Situated Video Reasoning Benchmark with Aligned Open-World Knowledge [60.76719375410635]
44Kの質問と10Kの状況からなる新しいベンチマーク(SOK-Bench)を提案する。
推論プロセスは、位置する知識と問題解決のための一般的な知識を理解し、適用するために必要である。
質問応答ペアと推論プロセスを生成し,最後に品質保証に関する手作業によるレビューを行った。
論文 参考訳(メタデータ) (2024-05-15T21:55:31Z) - Knowledge Graph Augmented Network Towards Multiview Representation
Learning for Aspect-based Sentiment Analysis [96.53859361560505]
本稿では,知識グラフ拡張ネットワーク(KGAN)を提案する。
KGANは感情の特徴表現を、文脈、構文、知識に基づく複数の視点から捉えている。
3つの人気のあるABSAベンチマークの実験は、我々のKGANの有効性と堅牢性を示している。
論文 参考訳(メタデータ) (2022-01-13T08:25:53Z) - Refined Commonsense Knowledge from Large-Scale Web Contents [24.10708502359049]
概念とその特性に関する常識知識(CSK)は、AIアプリケーションに有用である。
本稿では,CSKアサーションの大規模知識ベース(KB)を自動構築するASCENT++を提案する。
論文 参考訳(メタデータ) (2021-11-30T20:26:09Z) - CoVA: Context-aware Visual Attention for Webpage Information Extraction [65.11609398029783]
WIE をコンテキスト対応 Web ページオブジェクト検出タスクとして再構築することを提案する。
我々は、外観特徴とDOMツリーからの構文構造を組み合わせた、コンテキスト認識型視覚意図ベース(CoVA)検出パイプラインを開発した。
提案手法は,従来の最先端手法を改良した新しい挑戦的ベースラインであることを示す。
論文 参考訳(メタデータ) (2021-10-24T00:21:46Z) - Commonsense Knowledge Base Construction in the Age of Big Data [8.678138390075077]
自動常識知識基盤構築のための3つのシステムを紹介します。
知識抽出システム工学を説明するためにQuasimodoを使用し、ファジィコモンセンス知識のクリーニングにおいてスキーマ制約が果たす役割を説明するためにDiceを使い、概念モデリングの関連性を説明するためにAscentを使います。
論文 参考訳(メタデータ) (2021-05-05T08:27:36Z) - Bringing Cognitive Augmentation to Web Browsing Accessibility [69.62988485669146]
我々は、より自然でアクセス可能なwebブラウジング体験を提供するための認知的拡張によってもたらされる機会を探求する。
我々は,BVIP対話型Webブラウジングニーズを支援するための概念的フレームワークを開発する。
構造的特徴とコンテンツ機能のみを考慮した初期の作業とプロトタイプについて説明する。
論文 参考訳(メタデータ) (2020-12-07T14:40:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。