論文の概要: TopoLedgerBERT: Topological Learning of Ledger Description Embeddings using Siamese BERT-Networks
- arxiv url: http://arxiv.org/abs/2407.05175v1
- Date: Fri, 19 Apr 2024 13:20:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 14:29:03.391753
- Title: TopoLedgerBERT: Topological Learning of Ledger Description Embeddings using Siamese BERT-Networks
- Title(参考訳): TopoLedgerBERT:Siamese BERT-Networksを用いたLedger Description Embeddingのトポロジカルラーニング
- Authors: Sander Noels, Sébastien Viaene, Tijl De Bie,
- Abstract要約: TopoLedgerBERTは,台帳アカウントマッピングに特化して考案された独自の文埋め込み手法である。
このモデルは、アカウントのチャートから階層的な情報を文の埋め込みプロセスに統合する。
ベンチマーク手法と比較して、TopoLedgerBERTは精度と平均相互ランクにおいて優れた性能を示す。
- 参考スコア(独自算出の注目度): 7.443474354626664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses a long-standing problem in the field of accounting: mapping company-specific ledger accounts to a standardized chart of accounts. We propose a novel solution, TopoLedgerBERT, a unique sentence embedding method devised specifically for ledger account mapping. This model integrates hierarchical information from the charts of accounts into the sentence embedding process, aiming to accurately capture both the semantic similarity and the hierarchical structure of the ledger accounts. In addition, we introduce a data augmentation strategy that enriches the training data and, as a result, increases the performance of our proposed model. Compared to benchmark methods, TopoLedgerBERT demonstrates superior performance in terms of accuracy and mean reciprocal rank.
- Abstract(参考訳): 本稿では、会計分野における長年の課題である、企業固有の台帳アカウントを、会計の標準化されたチャートにマッピングする。
本稿では,台帳アカウントマッピングに特化して考案された独自の文埋め込み手法であるTopoLedgerBERTを提案する。
このモデルは、帳簿からの階層情報を文の埋め込みプロセスに統合し、帳簿の意味的類似性と階層構造の両方を正確に捉えることを目的としている。
さらに、トレーニングデータを充実させるデータ拡張戦略を導入し、その結果、提案モデルの性能を向上する。
ベンチマーク手法と比較して、TopoLedgerBERTは精度と平均相互ランクにおいて優れた性能を示す。
関連論文リスト
- Graph-Based Semi-Supervised Segregated Lipschitz Learning [0.21847754147782888]
本稿では,グラフ上のリプシッツ学習を用いたデータ分類のための半教師付き学習手法を提案する。
グラフに基づく半教師付き学習フレームワークを開発し、無限ラプラシアンの性質を利用して、少数のサンプルしかラベル付けされていないデータセットにラベルを伝播する。
論文 参考訳(メタデータ) (2024-11-05T17:16:56Z) - Multitask Fine-Tuning and Generative Adversarial Learning for Improved Auxiliary Classification [0.0]
3つの下流タスクをマルチタスクで微調整するための新しいBERTアーキテクチャを実装した。
我々のモデルであるMultitask BERTは、レイヤ共有とトリプルトアーキテクチャ、カスタム文ペアトークン化、損失ペアリング、勾配手術を取り入れています。
また、BERTに生成逆学習を適用し、潜在空間から写像して偽の埋め込みを生成する条件付きジェネレータモデルを構築した。
論文 参考訳(メタデータ) (2024-08-11T20:05:54Z) - A Fixed-Point Approach to Unified Prompt-Based Counting [51.20608895374113]
本研究の目的は,ボックス,ポイント,テキストなど,さまざまなプロンプト型で示されるオブジェクトの密度マップを生成することができる包括的プロンプトベースのカウントフレームワークを確立することである。
本モデルは,クラスに依存しない顕著なデータセットに優れ,データセット間の適応タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-15T12:05:44Z) - RankMatch: A Novel Approach to Semi-Supervised Label Distribution
Learning Leveraging Inter-label Correlations [52.549807652527306]
本稿では,SSLDL (Semi-Supervised Label Distribution Learning) の革新的なアプローチである RankMatch を紹介する。
RankMatchは、ラベルのない大量のデータとともに、少数のラベル付き例を効果的に活用する。
我々はRandMatchに縛られる理論的な一般化を確立し、広範な実験を通じて既存のSSLDL法に対する性能上の優位性を実証した。
論文 参考訳(メタデータ) (2023-12-11T12:47:29Z) - Multi-BERT for Embeddings for Recommendation System [0.0]
本稿では,Sentence-BERTとRoBERTaを組み合わせて文書埋め込みを生成する手法を提案する。
提案手法では,文をトークンとして扱い,埋め込みを生成することにより,文書内の文内関係と文間関係の両方を抽出する。
書籍推薦タスクにおいて本モデルを評価し,よりセマンティックにリッチで正確な文書埋め込みを生成する上での有効性を実証する。
論文 参考訳(メタデータ) (2023-08-24T19:36:05Z) - Mitigating Catastrophic Forgetting in Task-Incremental Continual
Learning with Adaptive Classification Criterion [50.03041373044267]
本稿では,継続的学習のための適応型分類基準を用いた教師付きコントラスト学習フレームワークを提案する。
実験により, CFLは最先端の性能を達成し, 分類基準に比べて克服する能力が強いことが示された。
論文 参考訳(メタデータ) (2023-05-20T19:22:40Z) - Long Document Summarization with Top-down and Bottom-up Inference [113.29319668246407]
本稿では、2つの側面の要約モデルを改善するための原則的推論フレームワークを提案する。
我々のフレームワークは、トップレベルが長距離依存性をキャプチャするドキュメントの階層的な潜在構造を前提としています。
本稿では,様々な要約データセットに対して提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-03-15T01:24:51Z) - Automated Concatenation of Embeddings for Structured Prediction [75.44925576268052]
本稿では, 埋め込みの自動結合(ACE)を提案し, 構造予測タスクにおける埋め込みのより優れた結合を見つけるプロセスを自動化する。
我々は、強化学習の戦略に従い、制御器のパラメータを最適化し、タスクモデルの精度に基づいて報酬を計算する。
論文 参考訳(メタデータ) (2020-10-10T14:03:20Z) - Document Ranking with a Pretrained Sequence-to-Sequence Model [56.44269917346376]
関連ラベルを「ターゲット語」として生成するためにシーケンス・ツー・シーケンス・モデルをどのように訓練するかを示す。
提案手法は,データポーラ方式におけるエンコーダのみのモデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2020-03-14T22:29:50Z) - BERT as a Teacher: Contextual Embeddings for Sequence-Level Reward [23.176481887478634]
単語を数えたり、比較したりした操作は、単語を埋め込んだり、埋め込みを比較したりすることができる。
BERT埋め込みの詳細な分析は、必要な依存関係をキャプチャするためにコンテキスト埋め込みを使用できることを実証的に示している。
我々は、無条件生成を強化学習問題とみなし、この挑戦的な環境では、報酬関数がn-gramの報酬よりも効果的な学習信号を提供することを示した。
論文 参考訳(メタデータ) (2020-03-05T16:06:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。