論文の概要: InterCorpRel-LLM: Enhancing Financial Relational Understanding with Graph-Language Models
- arxiv url: http://arxiv.org/abs/2510.09735v1
- Date: Fri, 10 Oct 2025 14:18:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.601129
- Title: InterCorpRel-LLM: Enhancing Financial Relational Understanding with Graph-Language Models
- Title(参考訳): InterCorpRel-LLM:グラフ言語モデルによる金融関係理解の強化
- Authors: Qianyou Sun, Jiexin Zheng, Bohan Jin, Lihua Chen, Yijie Peng,
- Abstract要約: InterCorpRel-LLMは、グラフマッチング、業界分類、供給関係予測を統合したクロスモーダルフレームワークである。
供給関係識別タスクにおいて、GPT-5を含む強いベースラインを大幅に上回る。
また、ゼロショットの競合の識別に一般化し、ニュアンス付き確証間ダイナミクスをキャプチャする能力を強調している。
- 参考スコア(独自算出の注目度): 4.098759138493994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Identifying inter-firm relationships such as supply and competitive ties is critical for financial analysis and corporate governance, yet remains challenging due to the scale, sparsity, and contextual dependence of corporate data. Graph-based methods capture structure but miss semantic depth, while large language models (LLMs) excel at text but remain limited in their ability to represent relational dependencies. To address this, we propose InterCorpRel-LLM, a cross-modal framework that integrates GNNs with LLMs, supported by a proprietary dataset derived from FactSet supply chain records and three tailored training tasks: company graph matching, industry classification, and supply relation prediction. This design enables effective joint modeling of structure and semantics. Experiments show that InterCorpRel-LLM substantially outperforms strong baselines, including GPT-5, on a supply relation identification task, achieving an F-score of 0.8543 vs. 0.2287 with only a 7B-parameter backbone and lightweight training. The model also generalizes to zero-shot competitor identification, underscoring its ability to capture nuanced inter-firm dynamics. Our framework thus provides analysts and strategists with a robust tool for mapping and reasoning about complex corporate networks, enhancing decision-making and risk management in dynamic markets.
- Abstract(参考訳): 需給関係や競争関係などの確証付き関係の特定は、財務分析や企業統治にとって重要であるが、企業データの規模、分散性、コンテキスト依存のため、依然として困難である。
グラフベースのメソッドは構造をキャプチャするがセマンティックの深さを見逃すが、大きな言語モデル(LLM)はテキストでは優れているが、リレーショナル依存を表現する能力は限られている。
そこで本研究では、FactSetサプライチェーンレコードから派生したプロプライエタリなデータセットと、企業グラフマッチング、産業分類、サプライ関係予測という3つのトレーニングタスクによって、GNNとLLMを統合するクロスモーダルフレームワークであるInterCorpRel-LLMを提案する。
この設計は、構造と意味論の効果的な共同モデリングを可能にする。
実験の結果、InterCorpRel-LLMは供給関係識別タスクにおいてGPT-5を含む強力なベースラインを大幅に上回っており、Fスコアは0.8543対0.2287で、7Bパラメートルのバックボーンと軽量なトレーニングのみであることがわかった。
このモデルは、ゼロショットの競合の識別にも一般化され、ニュアンス付き確証間ダイナミクスをキャプチャする能力が強調される。
我々のフレームワークは、アナリストやストラテジストに、複雑な企業ネットワークのマッピングと推論のための堅牢なツールを提供し、動的市場における意思決定とリスク管理を強化します。
関連論文リスト
- Bridging Semantics & Structure for Software Vulnerability Detection using Hybrid Network Models [0.0]
我々は複雑な相互作用ネットワークとして制御とデータフローの関係を捉えている。
本フレームワークでは,グラフ表現と軽量(4B)局所LLMを組み合わせる。
提案手法は,グラフ注意ネットワークによる埋め込みよりも93.57%の精度で8.36%向上する。
論文 参考訳(メタデータ) (2025-10-11T19:32:00Z) - CIR-CoT: Towards Interpretable Composed Image Retrieval via End-to-End Chain-of-Thought Reasoning [93.05917922306196]
Composed Image Retrieval (CIR) は、参照画像と修正テキストから対象画像を見つけることを目的としている。
CIR-CoTは、明示的なChain-of-Thought (CoT)推論を統合するために設計された最初のエンドツーエンド検索指向MLLMである。
論文 参考訳(メタデータ) (2025-10-09T09:41:45Z) - Exploring Network-Knowledge Graph Duality: A Case Study in Agentic Supply Chain Risk Analysis [3.734145313091892]
ネットワークと知識グラフの本質的にの双対性を利用する。
ネットワーク集中度スコアで導かれるグラフトラバーサは、最も経済的に健全なリスクパスを効率的に抽出する。
エージェントアーキテクチャは、数値係数テーブルとニュースストリームのデータとともに、このグラフ検索をオーケストレーションする。
論文 参考訳(メタデータ) (2025-10-01T17:02:14Z) - Towards Explainable Job Title Matching: Leveraging Semantic Textual Relatedness and Knowledge Graphs [0.19116784879310025]
本研究では,ジョブタイトルマッチングの文脈における意味的テキスト関連性(STR)について検討する。
本稿では,密文埋め込みとドメイン固有の知識グラフを組み合わせた自己教師型ハイブリッドアーキテクチャを提案する。
KGを付加した細調整SBERTモデルが高STR領域で一貫した改善をもたらすことを示す。
論文 参考訳(メタデータ) (2025-09-11T15:02:54Z) - A Pre-training Framework for Relational Data with Information-theoretic Principles [57.93973948947743]
本稿では,リレーショナルグラフ上の集合に基づくアグリゲーションを通じて,監視信号を構成する新しい事前学習フレームワークであるTask Vector Estimation (TVE)を紹介する。
TVEは従来のトレーニング前のベースラインを一貫して上回っている。
本研究は,関係データベース上での予測モデルの設計原則として,タスクの不均一性と時間構造を符号化する事前学習目的を提唱する。
論文 参考訳(メタデータ) (2025-07-14T00:17:21Z) - Relational Deep Learning: Challenges, Foundations and Next-Generation Architectures [50.46688111973999]
グラフ機械学習は、任意のグラフ構造化データで学習するモデルの能力を大幅に向上させた。
従来の工学的特徴を伴わない'関係エンティティグラフ'のエンドツーエンド表現を可能にする新しい青写真を提案する。
本稿では、大規模マルチテーブル統合や、時間力学と異種データのモデリングの複雑さなど、重要な課題について論じる。
論文 参考訳(メタデータ) (2025-06-19T23:51:38Z) - LogiPlan: A Structured Benchmark for Logical Planning and Relational Reasoning in LLMs [7.012555483275226]
LogiPlanは、大規模言語モデル(LLM)の論理的計画と複雑なリレーショナル構造に対する推論能力を評価するために設計されたベンチマークである。
我々はDeepSeek R1, Gemini 2.0 Pro, Gemini 2 Flash Thinking, GPT-4.5, GPT-4o, Llama 3.1 405B, O3-mini, O1, Claude 3.7 Sonnetを3つのタスクで評価した。
論文 参考訳(メタデータ) (2025-06-12T09:47:02Z) - EnriCo: Enriched Representation and Globally Constrained Inference for Entity and Relation Extraction [3.579132482505273]
結合実体と関係抽出は、特に知識グラフの構築において、様々な応用において重要な役割を担っている。
既存のアプローチはしばしば、表現の豊かさと出力構造におけるコヒーレンスという2つの重要な側面に欠ける。
本研究では,これらの欠点を緩和するEnriCoを紹介する。
論文 参考訳(メタデータ) (2024-04-18T20:15:48Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Entity-Graph Enhanced Cross-Modal Pretraining for Instance-level Product
Retrieval [152.3504607706575]
本研究の目的は, 細粒度製品カテゴリを対象とした, 弱制御型マルチモーダル・インスタンスレベルの製品検索である。
まず、Product1Mデータセットをコントリビュートし、2つの実際のインスタンスレベルの検索タスクを定義します。
我々は、マルチモーダルデータから重要な概念情報を組み込むことができるより効果的なクロスモーダルモデルを訓練するために活用する。
論文 参考訳(メタデータ) (2022-06-17T15:40:45Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。