論文の概要: TAG: Toward Accurate Social Media Content Tagging with a Concept Graph
- arxiv url: http://arxiv.org/abs/2110.06892v1
- Date: Wed, 13 Oct 2021 17:24:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 13:38:32.004753
- Title: TAG: Toward Accurate Social Media Content Tagging with a Concept Graph
- Title(参考訳): TAG:コンセプトグラフによるソーシャルメディアコンテンツタグの精度向上を目指して
- Authors: Jiuding Yang, Weidong Guo, Bang Liu, Yakun Yu, Chaoyue Wang, Jinwen
Luo, Linglong Kong, Di Niu, Zhen Wen
- Abstract要約: 1万のラベル付き概念ペアとWebスタイルの自然言語文からなる高品質な概念マッチングデータセットであるTAGを提案する。
私たちが考える概念は、オンラインユーザの関心の高まりを表している。
優れた抽象化と一般化性能を示す新しいグラフグラフマッチング法を提案する。
- 参考スコア(独自算出の注目度): 26.08816319395582
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although conceptualization has been widely studied in semantics and knowledge
representation, it is still challenging to find the most accurate concept
phrases to characterize the main idea of a text snippet on the fast-growing
social media. This is partly attributed to the fact that most knowledge bases
contain general terms of the world, such as trees and cars, which do not have
the defining power or are not interesting enough to social media app users.
Another reason is that the intricacy of natural language allows the use of
tense, negation and grammar to change the logic or emphasis of language, thus
conveying completely different meanings. In this paper, we present TAG, a
high-quality concept matching dataset consisting of 10,000 labeled pairs of
fine-grained concepts and web-styled natural language sentences, mined from the
open-domain social media. The concepts we consider represent the trending
interests of online users. Associated with TAG is a concept graph of these
fine-grained concepts and entities to provide the structural context
information. We evaluate a wide range of popular neural text matching models as
well as pre-trained language models on TAG, and point out their insufficiency
to tag social media content with the most appropriate concept. We further
propose a novel graph-graph matching method that demonstrates superior
abstraction and generalization performance by better utilizing both the
structural context in the concept graph and logic interactions between semantic
units in the sentence via syntactic dependency parsing. We open-source both the
TAG dataset and the proposed methods to facilitate further research.
- Abstract(参考訳): 概念化は意味論や知識表現において広く研究されてきたが、急速に成長するソーシャルメディア上でテキストスニペットの主観を特徴づける最も正確な概念句を見つけることは依然として困難である。
これは、ほとんどの知識基盤が、定義力を持たない、あるいはソーシャルメディアアプリユーザーに十分な興味を示さない木や車といった、世界の一般的な用語を含んでいるという事実の一部に起因している。
もう一つの理由として、自然言語の複雑さは、時制、否定、文法を用いて言語の論理や強調を変更できるため、全く異なる意味を持つ。
本稿では,オープンドメインのソーシャルメディアから抽出した1万組の細粒度概念とwebスタイルの自然言語文からなる,高品質なコンセプトマッチングデータセットであるtagを提案する。
私たちが考えるコンセプトは、オンラインユーザーのトレンド関心を表している。
tagは、構造的なコンテキスト情報を提供するために、これらのきめ細かい概念とエンティティの概念グラフである。
我々は,多種多様なニューラルテキストマッチングモデルとタグを用いた事前学習された言語モデルを評価し,ソーシャルメディアコンテンツを最も適切な概念でタグ付けする能力の欠如を指摘する。
さらに,概念グラフの構造的文脈と構文的係り受け解析による文の意味単位間の論理的相互作用の両立により,優れた抽象化と一般化性能を示す新しいグラフマッチング手法を提案する。
我々は,TAGデータセットと提案手法の両方をオープンソース化し,さらなる研究を促進する。
関連論文リスト
- Bridging Local Details and Global Context in Text-Attributed Graphs [62.522550655068336]
GraphBridgeは、コンテキストテキスト情報を活用することで、ローカルおよびグローバルな視点をブリッジするフレームワークである。
提案手法は最先端性能を実現し,グラフ対応トークン削減モジュールは効率を大幅に向上し,スケーラビリティの問題を解消する。
論文 参考訳(メタデータ) (2024-06-18T13:35:25Z) - Enhancing Dialogue Generation via Dynamic Graph Knowledge Aggregation [23.54754465832362]
従来のグラフニューラルネットワーク(GNN)では、グラフに渡すメッセージはテキストとは独立している。
このトレーニング体制は、グラフ知識とテキストの間に意味的なギャップをもたらす。
知識グラフ強化対話生成のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-28T13:21:00Z) - ConGraT: Self-Supervised Contrastive Pretraining for Joint Graph and Text Embeddings [20.25180279903009]
テキスト分散グラフ(TAG)におけるテキストとノードの分離表現を共同学習するためのContrastive Graph-Text Pretraining(ConGraT)を提案する。
提案手法は言語モデル(LM)とグラフニューラルネットワーク(GNN)を訓練し,CLIPにインスパイアされたバッチワイドコントラスト学習目標を用いて,それらの表現を共通の潜在空間に整列させる。
実験により、ConGraTは、ノードとテキストのカテゴリ分類、リンク予測、言語モデリングなど、さまざまな下流タスクのベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-23T17:53:30Z) - Enhanced Knowledge Selection for Grounded Dialogues via Document
Semantic Graphs [123.50636090341236]
本稿では,背景知識文書を自動的に文書意味グラフに変換することを提案する。
文書意味グラフは文ノードを用いて文レベル情報を保存し,文間の概念接続を提供する。
本実験により,HolEにおける知識選択タスクとエンドツーエンド応答生成タスクの双方において,意味グラフに基づく知識選択が文選択ベースラインよりも改善されることが示されている。
論文 参考訳(メタデータ) (2022-06-15T04:51:32Z) - Accessible Visualization via Natural Language Descriptions: A Four-Level
Model of Semantic Content [6.434361163743876]
可視化の自然言語記述によって伝達されるセマンティックコンテンツの概念モデルを提案する。
視覚障害者30名,視覚障害者90名を対象に,混合手法による評価を行い,どのセマンティック・コンテンツが最も有用か,それぞれに有意差が認められた。
論文 参考訳(メタデータ) (2021-10-08T23:37:25Z) - ASER: Towards Large-scale Commonsense Knowledge Acquisition via
Higher-order Selectional Preference over Eventualities [38.33830781329563]
我々は選択的選好に基づく常識知識収集の原則を策定する。
ASERには4億3800万の事象と6億4800万のエッジがある。
論文 参考訳(メタデータ) (2021-04-05T20:23:46Z) - Named Entity Recognition for Social Media Texts with Semantic
Augmentation [70.44281443975554]
名前付きエンティティ認識のための既存のアプローチは、短いテキストと非公式テキストで実行される場合、データ空間の問題に悩まされる。
そこで我々は,NER によるソーシャルメディアテキストに対するニューラルベースアプローチを提案し,ローカルテキストと拡張セマンティクスの両方を考慮に入れた。
論文 参考訳(メタデータ) (2020-10-29T10:06:46Z) - Natural Language Rationales with Full-Stack Visual Reasoning: From
Pixels to Semantic Frames to Commonsense Graphs [106.15931418425906]
本研究は,複数の複雑な視覚的推論課題にまたがる自然言語の有理性の生成に焦点を当てた最初の研究である。
RationaleVT Transformerは、事前学習された言語モデルとオブジェクト認識、接地された視覚的セマンティックフレーム、視覚的コモンセンスグラフを組み合わせることで、自由テキスト論理を生成することを学習する統合モデルである。
実験の結果, 基礎となる事前学習言語モデルは視覚適応の恩恵を受けており, 複雑な視覚的・テキスト的推論タスクに対するモデル解釈可能性の補完として, 自由文合理化が有望な研究方向であることを示唆した。
論文 参考訳(メタデータ) (2020-10-15T05:08:56Z) - Consensus-Aware Visual-Semantic Embedding for Image-Text Matching [69.34076386926984]
画像テキストマッチングは、視覚と言語をブリッジする上で中心的な役割を果たす。
既存のアプローチのほとんどは、表現を学ぶためにイメージテキストインスタンスペアのみに依存しています。
コンセンサスを意識したビジュアル・セマンティック・エンベディングモデルを提案し,コンセンサス情報を組み込む。
論文 参考訳(メタデータ) (2020-07-17T10:22:57Z) - Medical Concept Normalization in User Generated Texts by Learning Target
Concept Embeddings [5.33024001730262]
最近の研究は、テキスト分類またはテキストマッチングとして、正規化の概念を定めている。
提案モデルでは,入力概念の参照とターゲット概念の表現を共同で学習することで,これらの欠点を克服する。
我々のモデルは、精度を2.31%向上させることで、3つの標準データセットにまたがる既存のメソッドをすべて上回ります。
論文 参考訳(メタデータ) (2020-06-07T01:17:18Z) - Structure-Augmented Text Representation Learning for Efficient Knowledge
Graph Completion [53.31911669146451]
人為的な知識グラフは、様々な自然言語処理タスクに重要な支援情報を提供する。
これらのグラフは通常不完全であり、自動補完を促す。
グラフ埋め込みアプローチ(例えばTransE)は、グラフ要素を密度の高い埋め込みに表現することで構造化された知識を学ぶ。
テキストエンコーディングアプローチ(KG-BERTなど)は、グラフトリプルのテキストとトリプルレベルの文脈化表現を利用する。
論文 参考訳(メタデータ) (2020-04-30T13:50:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。