論文の概要: Multimodal Banking Dataset: Understanding Client Needs through Event
Sequences
- arxiv url: http://arxiv.org/abs/2409.17587v1
- Date: Thu, 26 Sep 2024 07:07:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-28 22:46:14.700845
- Title: Multimodal Banking Dataset: Understanding Client Needs through Event
Sequences
- Title(参考訳): マルチモーダルバンキングデータセット:イベントを通じてクライアントのニーズを理解する
系譜
- Authors: Mollaev Dzhambulat, Alexander Kostin, Postnova Maria, Ivan Karpukhin,
Ivan A Kireev, Gleb Gusev, Andrey Savchenko
- Abstract要約: 本稿では,150万人以上の企業顧客を擁する,産業規模で利用可能なマルチモーダルバンキングデータセットMBDについて紹介する。
すべてのエントリは、実際のプロプライエタリな銀行データから適切に匿名化されます。
我々は,タスクごとの単一モーダル手法よりも,マルチモーダルベースラインの方が優れていることを示す数値的な結果を提供する。
- 参考スコア(独自算出の注目度): 41.470088044942756
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Financial organizations collect a huge amount of data about clients that
typically has a temporal (sequential) structure and is collected from various
sources (modalities). Due to privacy issues, there are no large-scale
open-source multimodal datasets of event sequences, which significantly limits
the research in this area. In this paper, we present the industrial-scale
publicly available multimodal banking dataset, MBD, that contains more than
1.5M corporate clients with several modalities: 950M bank transactions, 1B geo
position events, 5M embeddings of dialogues with technical support and monthly
aggregated purchases of four bank's products. All entries are properly
anonymized from real proprietary bank data. Using this dataset, we introduce a
novel benchmark with two business tasks: campaigning (purchase prediction in
the next month) and matching of clients. We provide numerical results that
demonstrate the superiority of our multi-modal baselines over single-modal
techniques for each task. As a result, the proposed dataset can open new
perspectives and facilitate the future development of practically important
large-scale multimodal algorithms for event sequences.
HuggingFace Link: https://huggingface.co/datasets/ai-lab/MBD
Github Link: https://github.com/Dzhambo/MBD
- Abstract(参考訳): 金融組織は通常、時間的(シークエンシャル)な構造を持ち、さまざまなソース(モダリティ)から収集されるクライアントに関する膨大なデータを収集する。
プライバシの問題により、イベントシーケンスの大規模なオープンソースマルチモーダルデータセットは存在せず、この分野の研究を著しく制限している。
本稿では,9億5000万の銀行取引,1B測位イベント,技術支援による対話の5M埋め込み,4つの銀行商品の月次総購入といった,150万以上の企業顧客を対象とする,産業規模で利用可能なマルチモーダルバンキングデータセットMBDを提案する。
すべてのエントリは、実際のプロプライエタリな銀行データから適切に匿名化されます。
このデータセットを用いて、キャンペーン(来月の購入予測)とクライアントのマッチングという、2つのビジネスタスクを備えた新しいベンチマークを導入する。
我々は,タスクごとの単一モーダル手法よりも,マルチモーダルベースラインの方が優れていることを示す数値的な結果を提供する。
その結果、提案したデータセットは新たな視点を開き、イベントシーケンスのための事実上重要な大規模マルチモーダルアルゴリズムの開発を促進することができる。
HuggingFace Link: https://huggingface.co/datasets/ai-lab/MBD Github Link: https://github.com/Dzhambo/MBD
関連論文リスト
- MINIMA: Modality Invariant Image Matching [52.505282811925454]
複数のクロスモーダルケースを対象とした統合画像マッチングフレームワークであるMINIMAを提案する。
生成モデルを用いて、安価だがリッチなRGBのみのマッチングデータからモダリティをスケールアップする。
MD-synでは、任意の高度なマッチングパイプラインをランダムに選択したモダリティペアで直接訓練して、クロスモーダル能力を得ることができる。
論文 参考訳(メタデータ) (2024-12-27T02:39:50Z) - BabelBench: An Omni Benchmark for Code-Driven Analysis of Multimodal and Multistructured Data [61.936320820180875]
大規模言語モデル(LLM)は、様々な領域でますます重要になっている。
BabelBenchは、コード実行によるマルチモーダルなマルチ構造化データ管理におけるLLMの熟練度を評価する革新的なベンチマークフレームワークである。
BabelBenchの実験結果から,ChatGPT 4のような最先端モデルでさえ,大幅な改善の余地があることが示唆された。
論文 参考訳(メタデータ) (2024-10-01T15:11:24Z) - InfiMM-WebMath-40B: Advancing Multimodal Pre-Training for Enhanced Mathematical Reasoning [58.7966588457529]
InfiMM-WebMath-40Bは、インターリーブされた画像テキスト文書の高品質なデータセットである。
ウェブページは2400万、画像URLは8500万、テキストトークンは400億だ。
テキストのみのベンチマークでは,400億トークンしか利用していないにもかかわらず,データセットは1.3Bモデルの性能を大幅に向上させることが示された。
私たちのモデルは、MathVerseやWe-Mathといったマルチモーダルな数学ベンチマーク上で、オープンソースモデルの中で新しい最先端のモデルを設定しました。
論文 参考訳(メタデータ) (2024-09-19T08:41:21Z) - Adapting Segment Anything Model to Multi-modal Salient Object Detection with Semantic Feature Fusion Guidance [15.435695491233982]
マルチモーダル・サリアン・オブジェクト検出(SOD)のためのSegment Anything Model(SAM)の強力な特徴表現とゼロショット一般化能力を探求し活用するための新しいフレームワークを提案する。
アンダーラインSAMとサブラインマンティックファウンダリナールファウンダリナールグダンクンダリナール(サマン)を併用して開発する。
画像エンコーダでは,マルチモーダルSAMをマルチモーダル情報に適用するためのマルチモーダルアダプタが提案されている。
論文 参考訳(メタデータ) (2024-08-27T13:47:31Z) - MINT-1T: Scaling Open-Source Multimodal Data by 10x: A Multimodal Dataset with One Trillion Tokens [113.9621845919304]
MINT-1Tは最も広く多様なオープンソースMultimodal INTerleavedデータセットです。
MINT-1Tは1兆個のテキストトークンと340億の画像で構成され、既存のオープンソースデータセットの10倍のスケールアップである。
実験の結果,MINT-1TでトレーニングしたLMMは,以前の先行データセット OBELICS でトレーニングしたモデルの性能に匹敵することがわかった。
論文 参考訳(メタデータ) (2024-06-17T07:21:36Z) - LaDe: The First Comprehensive Last-mile Delivery Dataset from Industry [44.456275656687524]
LaDeは、業界から数百万のパッケージを備えた、最初の公開ラストマイルデリバリデータセットである。
実際の運用期間は6ヶ月で、21kクーリエの10万パッケージが対象だ。
LaDeには3つの特徴がある。
論文 参考訳(メタデータ) (2023-06-19T02:30:28Z) - M5Product: A Multi-modal Pretraining Benchmark for E-commercial Product
Downstream Tasks [94.80043324367858]
我々は600万以上のマルチモーダルペアからなるM5Productという大規模データセットをコントリビュートする。
M5Productには、画像、テキスト、テーブル、ビデオ、オーディオなど、複数のモードの豊富な情報が含まれている。
論文 参考訳(メタデータ) (2021-09-09T13:50:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。