論文の概要: Blindness to Modality Helps Entailment Graph Mining
- arxiv url: http://arxiv.org/abs/2109.10227v1
- Date: Tue, 21 Sep 2021 14:48:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 17:14:50.793666
- Title: Blindness to Modality Helps Entailment Graph Mining
- Title(参考訳): Blindness to Modalityはグラフマイニングに役立つ
- Authors: Liane Guillou, Sander Bijl de Vroe, Mark Johnson, Mark Steedman
- Abstract要約: モダリティ修飾器でフィルタしたニュースコーパスを用いてエンテリメントグラフを構築する。
述語からモダルを剥ぎ取ると、実際に性能が向上することを示す。
このことは、いくつかのタスクにおいて、述語を様々に修正する実用性は、それらがエンテーメントの証拠として貢献することを示唆している。
- 参考スコア(独自算出の注目度): 23.913114453943518
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Understanding linguistic modality is widely seen as important for downstream
tasks such as Question Answering and Knowledge Graph Population. Entailment
Graph learning might also be expected to benefit from attention to modality. We
build Entailment Graphs using a news corpus filtered with a modality parser,
and show that stripping modal modifiers from predicates in fact increases
performance. This suggests that for some tasks, the pragmatics of modal
modification of predicates allows them to contribute as evidence of entailment.
- Abstract(参考訳): 言語的モダリティを理解することは、質問応答や知識グラフの人口といった下流のタスクにとって重要であると広く考えられている。
グラフ学習もモダリティへの注意から恩恵を受ける可能性がある。
モーダルパーサでフィルタリングしたニュースコーパスを用いてエンテリメントグラフを構築し,実際に述語からモーダル修飾子を抽出することで性能が向上することを示す。
これは、いくつかのタスクにおいて述語を修飾する実践的な方法によって、それらに補足の証拠として貢献できることを示唆している。
関連論文リスト
- Can Graph Learning Improve Planning in LLM-based Agents? [61.47027387839096]
言語エージェントにおけるタスクプランニングは、大規模言語モデル(LLM)の開発とともに重要な研究トピックとして浮上している。
本稿では,課題計画のためのグラフ学習に基づく手法について検討する。
我々のグラフ学習への関心は、注意のバイアスと自己回帰的損失が、グラフ上の意思決定を効果的にナビゲートするLLMの能力を妨げているという理論的な発見に起因している。
論文 参考訳(メタデータ) (2024-05-29T14:26:24Z) - Hi-ArG: Exploring the Integration of Hierarchical Argumentation Graphs
in Language Pretraining [62.069374456021016]
議論を整理する新しい構造である階層的議論グラフ(Hi-ArG)を提案する。
また,テキストグラフマルチモーダルモデルであるGreaseArGや,グラフ情報を付加した新たな事前学習フレームワークなど,Hi-ArGを活用するための2つのアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-01T19:03:38Z) - Conversational Semantic Parsing using Dynamic Context Graphs [68.72121830563906]
汎用知識グラフ(KG)を用いた会話意味解析の課題を,数百万のエンティティと数千のリレーショナルタイプで検討する。
ユーザ発話を実行可能な論理形式にインタラクティブにマッピングできるモデルに焦点を当てる。
論文 参考訳(メタデータ) (2023-05-04T16:04:41Z) - Multimodal Graph Transformer for Multimodal Question Answering [9.292566397511763]
本稿では,複数のモーダルをまたがる推論を必要とする質問応答タスクのための新しいマルチモーダルグラフ変換器を提案する。
マルチモーダルグラフ情報を組み込むための,グラフを包含したプラグアンドプレイ準アテンション機構を提案する。
GQA, VQAv2, MultiModalQAデータセット上のトランスフォーマーベースラインに対するマルチモーダルグラフ変換の有効性を検証する。
論文 参考訳(メタデータ) (2023-04-30T21:22:35Z) - Combining Stochastic Explainers and Subgraph Neural Networks can
Increase Expressivity and Interpretability [12.526174412246107]
サブグラフ強化グラフニューラルネットワーク(SGNN)は、標準的なメッセージパッシングフレームワークのパワーを高めることができる。
本稿では,グラフのクラスと説明的スパース部分グラフの集合を共同で予測する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-14T14:21:20Z) - Spectral Augmentations for Graph Contrastive Learning [50.149996923976836]
コントラスト学習は、監督の有無にかかわらず、表現を学習するための第一の方法として現れてきた。
近年の研究では、グラフ表現学習における事前学習の有用性が示されている。
本稿では,グラフの対照的な目的に対する拡張を構築する際に,候補のバンクを提供するためのグラフ変換操作を提案する。
論文 参考訳(メタデータ) (2023-02-06T16:26:29Z) - SVGraph: Learning Semantic Graphs from Instructional Videos [0.0]
本稿では,グラフィカル表現のアノテーションを必要としない自己教師付き解釈可能な手法を提案する。
学習したグラフのセマンティック解釈性にナレーションを利用するマルチモーダルアプローチであるSVGraphを提案する。
複数のデータセットの実験を行い、セマンティックグラフ学習におけるSVGraphの解釈可能性を示す。
論文 参考訳(メタデータ) (2022-07-16T19:17:06Z) - GraphQ IR: Unifying Semantic Parsing of Graph Query Language with
Intermediate Representation [91.27083732371453]
本稿では,グラフクエリ言語,すなわちGraphQ IRに対する統合中間表現(IR)を提案する。
セマンティックギャップをブリッジするIRの自然言語のような表現と、グラフ構造を維持するための正式に定義された構文によって、ニューラルネットワークによるセマンティックパーシングは、ユーザクエリをより効果的にGraphQ IRに変換することができる。
我々のアプローチは、KQA Pro、Overnight、MetaQAにおける最先端のパフォーマンスを一貫して達成できます。
論文 参考訳(メタデータ) (2022-05-24T13:59:53Z) - Promoting Graph Awareness in Linearized Graph-to-Text Generation [72.83863719868364]
局所グラフ構造を符号化する線形化モデルの能力を検討する。
本研究は,モデルの暗黙のグラフ符号化の品質を高めるための解法である。
これらの消音足場は、低リソース設定における下流生成の大幅な改善につながることが分かりました。
論文 参考訳(メタデータ) (2020-12-31T18:17:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。