論文の概要: MessageNet: Message Classification using Natural Language Processing and
Meta-data
- arxiv url: http://arxiv.org/abs/2301.01808v1
- Date: Wed, 4 Jan 2023 20:11:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 13:24:30.235645
- Title: MessageNet: Message Classification using Natural Language Processing and
Meta-data
- Title(参考訳): MessageNet:自然言語処理とメタデータを用いたメッセージ分類
- Authors: Adar Kahana and Oren Elisha
- Abstract要約: メッセージ分類のための新しいDeep Learning (DL) アプローチを提案する。
提案手法は,最先端の自然言語処理(NLP)構築ブロックをベースとしている。
実験セクションでは、メッセージのメタデータがテキストのみから抽出できない追加情報を保持する場合があります。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we propose a new Deep Learning (DL) approach for message
classification. Our method is based on the state-of-the-art Natural Language
Processing (NLP) building blocks, combined with a novel technique for infusing
the meta-data input that is typically available in messages such as the sender
information, timestamps, attached image, audio, affiliations, and more. As we
demonstrate throughout the paper, going beyond the mere text by leveraging all
available channels in the message, could yield an improved representation and
higher classification accuracy. To achieve message representation, each type of
input is processed in a dedicated block in the neural network architecture that
is suitable for the data type. Such an implementation enables training all
blocks together simultaneously, and forming cross channels features in the
network. We show in the Experiments Section that in some cases, message's
meta-data holds an additional information that cannot be extracted just from
the text, and when using this information we achieve better performance.
Furthermore, we demonstrate that our multi-modality block approach outperforms
other approaches for injecting the meta data to the the text classifier.
- Abstract(参考訳): 本稿では,メッセージ分類のための新しいDeep Learning(DL)アプローチを提案する。
提案手法は,現在最先端の自然言語処理(NLP)ビルディングブロックと,送信者情報,タイムスタンプ,添付画像,オーディオ,アフィリエイトなどのメッセージで一般的に利用できるメタデータ入力を注入する新しい手法を組み合わせたものである。
論文全体を通して示すように、メッセージ中のすべての利用可能なチャンネルを活用することで、単なるテキストを超えて、より良い表現とより高い分類精度が得られる。
メッセージ表現を実現するために、データ型に適したニューラルネットワークアーキテクチャにおいて、各入力タイプを専用ブロックで処理する。
このような実装により、すべてのブロックを同時にトレーニングし、ネットワーク内のクロスチャネル機能を形成することができる。
実験のセクションでは、メッセージのメタデータがテキストからのみ抽出できない追加情報を持っている場合があり、この情報を使用するとパフォーマンスが向上することを示している。
さらに,本手法は,テキスト分類器にメタデータを注入する他の手法よりも優れていることを示す。
関連論文リスト
- Link Prediction with Untrained Message Passing Layers [0.716879432974126]
グラフニューラルネットワークにおける各種未学習メッセージパッシング層の利用について検討する。
トレーニングされていないメッセージパッシング層は、完全にトレーニングされたMPNNと比較して競争力があり、パフォーマンスも優れていることが分かりました。
論文 参考訳(メタデータ) (2024-06-24T14:46:34Z) - GuideWalk: A Novel Graph-Based Word Embedding for Enhanced Text Classification [0.0]
テキストデータの処理には埋め込みが必要であり、テキストの内容を数値ベクトルに変換する方法である。
新たなテキスト埋め込み手法,すなわちガイド遷移確率行列(GTPM)モデルを提案する。
提案手法は,実世界のデータセットと8つのよく知られた,成功した埋め込みアルゴリズムを用いて検証する。
論文 参考訳(メタデータ) (2024-04-25T18:48:11Z) - Unlocking the Multi-modal Potential of CLIP for Generalized Category Discovery [50.564146730579424]
テキスト埋め込み合成器(TES)を提案する。
提案手法は,CLIPのマルチモーダルポテンシャルを解放し,すべてのGCDベンチマークにおいて,ベースライン手法よりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2024-03-15T02:40:13Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - CSSL-MHTR: Continual Self-Supervised Learning for Scalable Multi-script Handwritten Text Recognition [16.987008461171065]
我々は,手書き文字認識における破滅的な忘れの問題を軽減するために,連続的な自己指導型学習の可能性を探究する。
提案手法は,各タスクにアダプタと呼ばれる中間層を追加し,現在のタスクを学習しながら,前モデルからの知識を効率的に抽出する。
私たちは英語、イタリア語、ロシア語のスクリプトで最先端のパフォーマンスを達成しましたが、タスクごとにいくつかのパラメータしか追加していません。
論文 参考訳(メタデータ) (2023-03-16T14:27:45Z) - Contrastive Graph Multimodal Model for Text Classification in Videos [9.218562155255233]
我々は、マルチモーダル情報を融合させることで、ビデオテキスト分類の新しい課題に最初に対処する。
レイアウト情報を明示的に抽出することで特徴表現を強化するために、相関ネットと呼ばれる特定のモジュールを調整します。
我々は、ビデオテキスト認識および分類アプリケーションの構築と評価を目的とした、TI-Newsと呼ばれるニュースドメインから、明確に定義された新しい産業データセットを構築した。
論文 参考訳(メタデータ) (2022-06-06T04:06:21Z) - Generating More Pertinent Captions by Leveraging Semantics and Style on
Multi-Source Datasets [56.018551958004814]
本稿では,データソースの非一様結合をトレーニングすることで,流動的な記述を生成するタスクに対処する。
ノイズの多い画像とテキストのペアを持つ大規模データセットは、サブ最適の監視源を提供する。
本稿では,検索コンポーネントから抽出したスタイルトークンとキーワードを組み込むことにより,セマンティクスと記述スタイルを活用・分離することを提案する。
論文 参考訳(メタデータ) (2021-11-24T19:00:05Z) - Pre-training Language Model Incorporating Domain-specific Heterogeneous Knowledge into A Unified Representation [49.89831914386982]
本研究では, 構造化されていないテキスト, 半構造化されたテキスト, 十分に構造化されたテキストを含む, あらゆる形式のテキストに対して, 統一された事前学習言語モデル (PLM) を提案する。
提案手法は,データの1/4のみを用いて,プレーンテキストの事前学習に優れる。
論文 参考訳(メタデータ) (2021-09-02T16:05:24Z) - Enabling Language Models to Fill in the Blanks [81.59381915581892]
文書中の任意の位置にあるテキストの欠落を予測するタスクである,テキストを埋め込むためのシンプルなアプローチを提案する。
我々は、人工的にマスキングされたテキストと隠蔽されたテキストの連結を含むシーケンスに基づいて、オフザシェルフ言語モデル(またはファインチューン)を訓練する。
言語モデリングにより,この手法により,3つの分野(短編,科学的な要約,歌詞)において,LMが文全体を効果的に埋め込むことができることを示す。
論文 参考訳(メタデータ) (2020-05-11T18:00:03Z) - From text saliency to linguistic objects: learning linguistic
interpretable markers with a multi-channels convolutional architecture [2.064612766965483]
本稿では,分類プロセスを利用したテキストから解釈可能な言語オブジェクトを抽出するために,実装されたCNNの隠れ層を検査する手法を提案する。
我々は、英語とフランス語の2つの異なる言語からのコーパスに対するアプローチの効率を実証的に実証した。
論文 参考訳(メタデータ) (2020-04-07T10:46:58Z) - Exploring the Limits of Transfer Learning with a Unified Text-to-Text
Transformer [64.22926988297685]
下流タスクで微調整される前に、まずデータリッチタスクでモデルが事前訓練されるトランスファーラーニングは、自然言語処理(NLP)において強力な手法として登場した。
本稿では,すべてのテキストベースの言語問題をテキスト・トゥ・テキスト・フォーマットに変換する統一フレームワークにより,NLPのためのトランスファー学習手法を導入する状況について検討する。
論文 参考訳(メタデータ) (2019-10-23T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。