論文の概要: LATTE: Learning Aligned Transactions and Textual Embeddings for Bank Clients
- arxiv url: http://arxiv.org/abs/2508.10021v3
- Date: Thu, 09 Oct 2025 20:52:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:45.997908
- Title: LATTE: Learning Aligned Transactions and Textual Embeddings for Bank Clients
- Title(参考訳): LATTE: 銀行顧客のためのアラインメントトランザクションとテキスト埋め込みを学習する
- Authors: Egor Fadeev, Dzhambulat Mollaev, Aleksei Shestov, Omar Zoloev, Artem Sakhno, Dmitry Korolev, Ivan Kireev, Andrey Savchenko, Maksim Makarenko,
- Abstract要約: LATTEは、生のイベント埋め込みと凍結した言語モデルからのセマンティック埋め込みを整合させる、対照的な学習フレームワークである。
提案手法は,実世界の財務データセット上でのイベントシーケンス表現の学習において,最先端技術よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 0.6106535351521803
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning clients embeddings from sequences of their historic communications is central to financial applications. While large language models (LLMs) offer general world knowledge, their direct use on long event sequences is computationally expensive and impractical in real-world pipelines. In this paper, we propose LATTE, a contrastive learning framework that aligns raw event embeddings with semantic embeddings from frozen LLMs. Behavioral features are summarized into short prompts, embedded by the LLM, and used as supervision via contrastive loss. The proposed approach significantly reduces inference cost and input size compared to conventional processing of complete sequence by LLM. We experimentally show that our method outperforms state-of-the-art techniques for learning event sequence representations on real-world financial datasets while remaining deployable in latency-sensitive environments.
- Abstract(参考訳): 歴史的コミュニケーションのシーケンスからのクライアントの埋め込みを学習することは、金融アプリケーションの中心である。
大規模言語モデル(LLM)は一般的な世界の知識を提供するが、長い事象列への直接的な使用は計算コストが高く、現実世界のパイプラインでは実用的ではない。
本稿では,LLM の生イベント埋め込みと,凍結した LLM からのセマンティック埋め込みとを整合させるコントラスト学習フレームワーク LATTE を提案する。
行動の特徴は短いプロンプトにまとめられ、LSMに埋め込まれ、対照的な損失を通じて監督される。
提案手法は,従来のLLMによる完全列処理と比較して,推論コストと入力サイズを大幅に削減する。
提案手法は,リアルタイムの財務データセット上でのイベントシーケンス表現の学習において,レイテンシに敏感な環境下でのデプロイを継続しながら,最先端技術よりも優れていることを示す。
関連論文リスト
- Enhancing Foundation Models in Transaction Understanding with LLM-based Sentence Embeddings [26.118375969968437]
大きな言語モデル(LLM)は、より優れたセマンティック理解を通じて、この制限に対処することができる。
軽量トランザクションモデルのためのセマンティック初期化としてLLM生成の埋め込みを利用するハイブリッドフレームワークを提案する。
提案手法では,マルチソースデータ融合を用いて,商取引分野を豊かにし,一貫した埋め込み生成のための一語制約原理を定めている。
論文 参考訳(メタデータ) (2025-12-01T23:30:17Z) - Training-Free Group Relative Policy Optimization [34.73950078782136]
我々は,Large Language Model (LLM) エージェントが,経験的知識を先行するトークンとして学習することで,出力分布に類似した効果を得られることを論じる。
我々は,LLMエージェントの性能をパラメータ更新なしで向上する,費用対効果の高いソリューションであるTraining-Free Group Relative Policy Optimization (Training-Free GRPO)を提案する。
数学的推論とWeb検索タスクの実験により、DeepSeek-V3.1-Terminusに適用されたトレーニングフリーGRPOは、ドメイン外のパフォーマンスを大幅に改善することを示した。
論文 参考訳(メタデータ) (2025-10-09T13:18:17Z) - END: Early Noise Dropping for Efficient and Effective Context Denoising [60.24648712022382]
大規模言語モデル(LLM)は、幅広い自然言語処理タスクにおいて顕著な性能を示している。
彼らはしばしば、出力品質を低下させる入力シーケンスにおける無関係またはノイズの文脈に気を散らされる。
我々は,LLMの微調整を必要とせず,この問題を緩和するための新しい手法であるEarly Noise Dropping (textscEND)を紹介した。
論文 参考訳(メタデータ) (2025-02-26T08:07:17Z) - Bridging LLMs and KGs without Fine-Tuning: Intermediate Probing Meets Subgraph-Aware Entity Descriptions [49.36683223327633]
大規模言語モデル(LLM)は、幅広い世界の知識をカプセル化し、強力なコンテキストモデリング能力を示す。
実効的で効率的なKGCを実現するために,LLMの強みを頑健な知識表現と相乗化するための新しいフレームワークを提案する。
従来手法に比べて47%の相対的な改善を達成し,我々の知る限り,ファインチューニング LLM に匹敵する分類性能を初めて達成した。
論文 参考訳(メタデータ) (2024-08-13T10:15:55Z) - Soft Prompting for Unlearning in Large Language Models [11.504012974208466]
この研究は、データ保護規制を動機とした大規模言語モデルのための機械学習の研究に焦点をあてる。
我々はtextbfUntextbflearning (SPUL) のための textbfSoft textbfPrompting フレームワークを提案する。
本研究では,提案手法の厳密な評価を行い,SPULが実用性と忘れとのトレードオフを大幅に改善できることを示す。
論文 参考訳(メタデータ) (2024-06-17T19:11:40Z) - Text-Video Retrieval with Global-Local Semantic Consistent Learning [122.15339128463715]
我々は,シンプルで効果的なグローバル局所意味的一貫性学習(GLSCL)を提案する。
GLSCLは、テキストビデオ検索のためのモダリティをまたいだ潜在共有セマンティクスを活用する。
本手法はSOTAと同等の性能を実現し,計算コストの約220倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-05-21T11:59:36Z) - FederatedScope-LLM: A Comprehensive Package for Fine-tuning Large
Language Models in Federated Learning [70.38817963253034]
本稿では, ファインチューニング LLM のこれらの課題について論じ, 本パッケージ FS-LLM を主な貢献として紹介する。
我々は、FLシナリオにおける将来の拡張のために、包括的フェデレーションパラメータ効率の良い微調整アルゴリズムの実装と汎用プログラミングインタフェースを提供する。
本研究では, FS-LLM の有効性を検証し, FL 設定におけるパラメータ効率の高いパラメータ調整アルゴリズムを用いて, 高度な LLM のベンチマークを行う。
論文 参考訳(メタデータ) (2023-09-01T09:40:36Z) - Harnessing Scalable Transactional Stream Processing for Managing Large
Language Models [Vision] [4.553891255178496]
大規模言語モデル(LLM)は、広範囲のアプリケーションにまたがって素晴らしいパフォーマンスを示している。
本稿では,トランザクションストリーム処理(TSP)とLLM管理を統合する革命的フレームワークであるTStreamLLMを紹介する。
リアルタイムの患者モニタリングやインテリジェントなトラフィック管理といった実践的なユースケースを通じて、その可能性を示す。
論文 参考訳(メタデータ) (2023-07-17T04:01:02Z) - OverPrompt: Enhancing ChatGPT through Efficient In-Context Learning [49.38867353135258]
複数のタスク入力を処理するために,LLMのコンテキスト内学習機能を活用したOverPromptを提案する。
本実験により,OverPromptはタスク性能を著しく損なうことなく,コスト効率の良いゼロショット分類を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-05-24T10:08:04Z) - Response Length Perception and Sequence Scheduling: An LLM-Empowered LLM
Inference Pipeline [22.08897444328099]
大規模言語モデル(LLM)はAIの分野に革命をもたらし、様々なタスクで前例のない能力を示している。
本稿では,LLMのパワーを利用する効率的なLLM推論パイプラインを提案する。
論文 参考訳(メタデータ) (2023-05-22T15:36:06Z) - CoLES: Contrastive Learning for Event Sequences with Self-Supervision [63.3568071938238]
本研究では,実世界のユーザが生成する個別イベントシーケンスにおける自己教師型学習の課題に対処する。
従来,音声やコンピュータビジョンの領域で使われていたコントラスト学習に適応する新しい手法"CoLES"を提案する。
論文 参考訳(メタデータ) (2020-02-19T15:15:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。