論文の概要: Learning Mutual Fund Categorization using Natural Language Processing
- arxiv url: http://arxiv.org/abs/2207.04959v1
- Date: Mon, 11 Jul 2022 15:40:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 15:38:14.306643
- Title: Learning Mutual Fund Categorization using Natural Language Processing
- Title(参考訳): 自然言語処理を用いた相互資金分類の学習
- Authors: Dimitrios Vamvourellis, Mate Attila Toth, Dhruv Desai, Dhagash Mehta,
Stefano Pasquali
- Abstract要約: 自然言語処理(NLP)を用いて,非構造化データから分類システムを直接学習する。
分類システムを高精度に学習できることが示される。
- 参考スコア(独自算出の注目度): 0.5249805590164901
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Categorization of mutual funds or Exchange-Traded-funds (ETFs) have long
served the financial analysts to perform peer analysis for various purposes
starting from competitor analysis, to quantifying portfolio diversification.
The categorization methodology usually relies on fund composition data in the
structured format extracted from the Form N-1A. Here, we initiate a study to
learn the categorization system directly from the unstructured data as depicted
in the forms using natural language processing (NLP). Positing as a multi-class
classification problem with the input data being only the investment strategy
description as reported in the form and the target variable being the Lipper
Global categories, and using various NLP models, we show that the
categorization system can indeed be learned with high accuracy. We discuss
implications and applications of our findings as well as limitations of
existing pre-trained architectures in applying them to learn fund
categorization.
- Abstract(参考訳): 相互資金のカテゴリ化やetf(exchange-traded-funds)は、金融アナリストに、競合分析からポートフォリオの多様化の定量化に至るまで、さまざまな目的でピア分析を行うための役立った。
分類法は、通常 n-1a から抽出された構造化形式における資金構成データに依存する。
本稿では,自然言語処理(NLP)を用いて,非構造化データから分類システムを直接学習する研究を開始する。
入力データは,その形式で報告された投資戦略記述のみであり,対象変数はLipper Globalカテゴリであり,様々なNLPモデルを用いて,分類システムを高精度に学習可能であることを示す。
本研究の意義と応用、および既存の事前学習されたアーキテクチャの限界について、資金の分類を学ぶために適用することについて論じる。
関連論文リスト
- Are Large Language Models Good Classifiers? A Study on Edit Intent Classification in Scientific Document Revisions [62.12545440385489]
大規模言語モデル(LLM)は、テキスト生成の大幅な進歩をもたらしたが、分類タスクの強化の可能性はまだ未検討である。
生成と符号化の両方のアプローチを含む分類のための微調整LDMを徹底的に研究するためのフレームワークを提案する。
我々はこのフレームワークを編集意図分類(EIC)においてインスタンス化する。
論文 参考訳(メタデータ) (2024-10-02T20:48:28Z) - High-Performance Few-Shot Segmentation with Foundation Models: An Empirical Study [64.06777376676513]
基礎モデルに基づく数ショットセグメンテーション(FSS)フレームワークを開発した。
具体的には、基礎モデルから暗黙的な知識を抽出し、粗い対応を構築するための簡単なアプローチを提案する。
2つの広く使われているデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-09-10T08:04:11Z) - Classifying Organizations for Food System Ontologies using Natural
Language Processing [9.462188694526134]
環境問題に関連する組織を自動的に分類できるNLPモデルを開発した。
入力として、NLPモデルは、組織ごとにGoogle検索エンジンによって検索されるテキストスニペットが提供される。
我々はNLPモデルが知識グラフを蓄積するための情報収集に有望なアプローチであると信じている。
論文 参考訳(メタデータ) (2023-09-19T19:07:48Z) - Company classification using zero-shot learning [0.0]
NLPとゼロショット学習を用いた企業分類手法を提案する。
Wharton Research Data Services(WRDS)を用いて得られたデータセットに対する我々のアプローチを評価する。
論文 参考訳(メタデータ) (2023-05-01T18:36:06Z) - Generalization Properties of Retrieval-based Models [50.35325326050263]
検索ベースの機械学習手法は、幅広い問題で成功をおさめた。
これらのモデルの約束を示す文献が増えているにもかかわらず、そのようなモデルの理論的基盤はいまだに解明されていない。
本稿では,その一般化能力を特徴付けるために,検索ベースモデルの形式的処理を行う。
論文 参考訳(メタデータ) (2022-10-06T00:33:01Z) - On Language Clustering: A Non-parametric Statistical Approach [0.0]
本研究は,非パラメトリックな非均一データフレームワークに適用可能な統計的アプローチを提案する。
また、自然言語処理や言語クラスタリングの分野での応用についても検討している。
論文 参考訳(メタデータ) (2022-09-14T15:27:41Z) - An Evolutionary Approach for Creating of Diverse Classifier Ensembles [11.540822622379176]
CIF-Eと呼ばれる4段階のプロトコルに基づく分類器の選択と融合のためのフレームワークを提案する。
我々は,提案したCIF-Eプロトコルに従って,24種類のアンサンブルアプローチを実装し,評価した。
実験により、提案された進化的アプローチは、多くのよく知られたUCIデータセットにおいて最先端の文献的アプローチより優れていることが示された。
論文 参考訳(メタデータ) (2022-08-23T14:23:27Z) - A Unified Understanding of Deep NLP Models for Text Classification [88.35418976241057]
我々は、テキスト分類のためのNLPモデルの統一的な理解を可能にする視覚解析ツールDeepNLPVisを開発した。
主要なアイデアは相互情報に基づく尺度であり、モデルの各レイヤがサンプル内の入力語の情報をどのように保持するかを定量的に説明する。
コーパスレベル、サンプルレベル、単語レベルビジュアライゼーションで構成されるマルチレベルビジュアライゼーションは、全体トレーニングセットから個々のサンプルまでの分析をサポートする。
論文 参考訳(メタデータ) (2022-06-19T08:55:07Z) - Federated Learning Aggregation: New Robust Algorithms with Guarantees [63.96013144017572]
エッジでの分散モデルトレーニングのために、フェデレートラーニングが最近提案されている。
本稿では,連合学習フレームワークにおける集約戦略を評価するために,完全な数学的収束解析を提案する。
損失の値に応じてクライアントのコントリビューションを差別化することで、モデルアーキテクチャを変更できる新しい集約アルゴリズムを導出する。
論文 参考訳(メタデータ) (2022-05-22T16:37:53Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Pareto-wise Ranking Classifier for Multi-objective Evolutionary Neural
Architecture Search [15.454709248397208]
本研究は,多様な設計目的の下で実現可能な深層モデルを見つける方法に焦点を当てる。
オンライン分類器を訓練し、候補と構築された参照アーキテクチャとの優位性関係を予測する。
さまざまな目的や制約の下で、2Mから6Mまでの異なるモデルサイズを持つ多数のニューラルアーキテクチャを見つけます。
論文 参考訳(メタデータ) (2021-09-14T13:28:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。