論文の概要: Multimodal Banking Dataset: Understanding Client Needs through Event Sequences
- arxiv url: http://arxiv.org/abs/2409.17587v2
- Date: Mon, 02 Jun 2025 17:03:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 01:42:08.899613
- Title: Multimodal Banking Dataset: Understanding Client Needs through Event Sequences
- Title(参考訳): マルチモーダルバンキングデータセット:イベントシーケンスによるクライアントニーズ理解
- Authors: Dzhambulat Mollaev, Alexander Kostin, Maria Postnova, Ivan Karpukhin, Ivan Kireev, Gleb Gusev, Andrey Savchenko,
- Abstract要約: 我々は,大手銀行の200万人以上の企業顧客に関する情報を含む,初めて産業規模で一般公開されたマルチモーダルバンキングデータセットMBDを提示する。
クライアントは、銀行取引9億5000万、ジオロケーションイベント1B、技術サポートを伴う対話の5M埋め込み、4つの銀行製品の月次集計購入など、いくつかのデータソースで表現されている。
本稿では,将来の購入予測やモダリティマッチングなど,いくつかの重要な実践課題を提案する新しいマルチモーダルベンチマークを提案する。
- 参考スコア(独自算出の注目度): 40.224479728553845
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Financial organizations collect a huge amount of temporal (sequential) data about clients, which is typically collected from multiple sources (modalities). Despite the urgent practical need, developing deep learning techniques suitable to handle such data is limited by the absence of large open-source multi-source real-world datasets of event sequences. To fill this gap, which is mainly caused by security reasons, we present the first industrial-scale publicly available multimodal banking dataset, MBD, that contains information on more than 2M corporate clients of a large bank. Clients are represented by several data sources: 950M bank transactions, 1B geo position events, 5M embeddings of dialogues with technical support, and monthly aggregated purchases of four bank products. All entries are properly anonymized from real proprietary bank data, and the experiments confirm that our anonymization still saves all significant information for introduced downstream tasks. Moreover, we introduce a novel multimodal benchmark suggesting several important practical tasks, such as future purchase prediction and modality matching. The benchmark incorporates our MBD and two public financial datasets. We provide numerical results for the state-of-the-art event sequence modeling techniques including large language models and demonstrate the superiority of fusion baselines over single-modal techniques for each task. Thus, MBD provides a valuable resource for future research in financial applications of multimodal event sequence analysis. HuggingFace Link: https://huggingface.co/datasets/ai-lab/MBD Github Link: https://github.com/Dzhambo/MBD
- Abstract(参考訳): 金融組織は、複数のソース(モダリティ)から収集される、クライアントに関する膨大な時間的(シークエンシャル)データを収集する。
このようなデータを扱うのに適したディープラーニング技術の開発は、緊急の実践的ニーズにもかかわらず、大規模なオープンソースマルチオープンソースの実世界のイベントシーケンスデータセットが欠如しているため、制限される。
セキュリティ上の理由から主に引き起こされるこのギャップを埋めるため,大手銀行の200万人以上の企業顧客に関する情報を含む,初めて産業規模で公開されているマルチモーダルバンキングデータセットMBDを提示する。
クライアントは、銀行取引9億5000万、ジオロケーションイベント1B、技術サポートを伴う対話の5M埋め込み、4つの銀行製品の月次集計購入など、いくつかのデータソースで表現されている。
すべてのエントリは、実際のプロプライエタリな銀行データから適切に匿名化されています。
さらに,今後の購買予測やモダリティマッチングなど,いくつかの重要な実践課題を提案する新しいマルチモーダルベンチマークを提案する。
このベンチマークにはMBDと2つの公開財務データセットが組み込まれています。
大規模言語モデルを含む最先端イベントシーケンスモデリング手法の数値計算結果を提供し、各タスクに対する単一モーダル手法よりも融合ベースラインの方が優れていることを示す。
したがって、MBDは、マルチモーダルイベントシーケンス分析の金融応用における将来の研究のための貴重なリソースを提供する。
HuggingFace Link: https://huggingface.co/datasets/ai-lab/MBD Github Link: https://github.com/Dzhambo/MBD
関連論文リスト
- MINIMA: Modality Invariant Image Matching [52.505282811925454]
複数のクロスモーダルケースを対象とした統合画像マッチングフレームワークであるMINIMAを提案する。
生成モデルを用いて、安価だがリッチなRGBのみのマッチングデータからモダリティをスケールアップする。
MD-synでは、任意の高度なマッチングパイプラインをランダムに選択したモダリティペアで直接訓練して、クロスモーダル能力を得ることができる。
論文 参考訳(メタデータ) (2024-12-27T02:39:50Z) - BabelBench: An Omni Benchmark for Code-Driven Analysis of Multimodal and Multistructured Data [61.936320820180875]
大規模言語モデル(LLM)は、様々な領域でますます重要になっている。
BabelBenchは、コード実行によるマルチモーダルなマルチ構造化データ管理におけるLLMの熟練度を評価する革新的なベンチマークフレームワークである。
BabelBenchの実験結果から,ChatGPT 4のような最先端モデルでさえ,大幅な改善の余地があることが示唆された。
論文 参考訳(メタデータ) (2024-10-01T15:11:24Z) - InfiMM-WebMath-40B: Advancing Multimodal Pre-Training for Enhanced Mathematical Reasoning [58.7966588457529]
InfiMM-WebMath-40Bは、インターリーブされた画像テキスト文書の高品質なデータセットである。
ウェブページは2400万、画像URLは8500万、テキストトークンは400億だ。
テキストのみのベンチマークでは,400億トークンしか利用していないにもかかわらず,データセットは1.3Bモデルの性能を大幅に向上させることが示された。
私たちのモデルは、MathVerseやWe-Mathといったマルチモーダルな数学ベンチマーク上で、オープンソースモデルの中で新しい最先端のモデルを設定しました。
論文 参考訳(メタデータ) (2024-09-19T08:41:21Z) - Adapting Segment Anything Model to Multi-modal Salient Object Detection with Semantic Feature Fusion Guidance [15.435695491233982]
マルチモーダル・サリアン・オブジェクト検出(SOD)のためのSegment Anything Model(SAM)の強力な特徴表現とゼロショット一般化能力を探求し活用するための新しいフレームワークを提案する。
アンダーラインSAMとサブラインマンティックファウンダリナールファウンダリナールグダンクンダリナール(サマン)を併用して開発する。
画像エンコーダでは,マルチモーダルSAMをマルチモーダル情報に適用するためのマルチモーダルアダプタが提案されている。
論文 参考訳(メタデータ) (2024-08-27T13:47:31Z) - MINT-1T: Scaling Open-Source Multimodal Data by 10x: A Multimodal Dataset with One Trillion Tokens [113.9621845919304]
MINT-1Tは最も広く多様なオープンソースMultimodal INTerleavedデータセットです。
MINT-1Tは1兆個のテキストトークンと340億の画像で構成され、既存のオープンソースデータセットの10倍のスケールアップである。
実験の結果,MINT-1TでトレーニングしたLMMは,以前の先行データセット OBELICS でトレーニングしたモデルの性能に匹敵することがわかった。
論文 参考訳(メタデータ) (2024-06-17T07:21:36Z) - LaDe: The First Comprehensive Last-mile Delivery Dataset from Industry [44.573471568516915]
LaDeは、業界から数百万のパッケージを備えた、最初の公開ラストマイルデリバリデータセットである。
実際の運用期間は6ヶ月で、21kクーリエの10万パッケージが対象だ。
LaDeには3つの特徴がある。
論文 参考訳(メタデータ) (2023-06-19T02:30:28Z) - MMSum: A Dataset for Multimodal Summarization and Thumbnail Generation
of Videos [106.06278332186106]
マルチモーダル・アウトプット(MSMO)を用いたマルチモーダル・サマリゼーションが有望な研究方向として浮上している。
既存のパブリックMSMOデータセットには多くの制限がある。
textbfMMSumデータセットを精巧にキュレートした。
論文 参考訳(メタデータ) (2023-06-07T07:43:11Z) - M5Product: A Multi-modal Pretraining Benchmark for E-commercial Product
Downstream Tasks [94.80043324367858]
我々は600万以上のマルチモーダルペアからなるM5Productという大規模データセットをコントリビュートする。
M5Productには、画像、テキスト、テーブル、ビデオ、オーディオなど、複数のモードの豊富な情報が含まれている。
論文 参考訳(メタデータ) (2021-09-09T13:50:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。