論文の概要: HSGM: Hierarchical Segment-Graph Memory for Scalable Long-Text Semantics
- arxiv url: http://arxiv.org/abs/2509.18168v1
- Date: Wed, 17 Sep 2025 10:11:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.444759
- Title: HSGM: Hierarchical Segment-Graph Memory for Scalable Long-Text Semantics
- Title(参考訳): HSGM:スケーラブルな長文セマンティックスのための階層的なセグメントグラフメモリ
- Authors: Dong Liu, Yanxuan Yu,
- Abstract要約: textbfHierarchical Segment-Graph Memory (HSGM) - 長さ$N$の入力を意味のあるセグメントに分解する新しいフレームワーク。
HSGMはインセンメンタルアップデートをサポートする。ローカルグラフの構築とサマリノードの統合を行うのは,新たに到着したセグメントのみである。
提案手法は,超長文に対するスケーラブルで高精度なセマンティックモデリングを開放し,リアルタイムかつリソース制約のあるNLPアプリケーションを実現する。
- 参考スコア(独自算出の注目度): 5.216774377033164
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semantic parsing of long documents remains challenging due to quadratic growth in pairwise composition and memory requirements. We introduce \textbf{Hierarchical Segment-Graph Memory (HSGM)}, a novel framework that decomposes an input of length $N$ into $M$ meaningful segments, constructs \emph{Local Semantic Graphs} on each segment, and extracts compact \emph{summary nodes} to form a \emph{Global Graph Memory}. HSGM supports \emph{incremental updates} -- only newly arrived segments incur local graph construction and summary-node integration -- while \emph{Hierarchical Query Processing} locates relevant segments via top-$K$ retrieval over summary nodes and then performs fine-grained reasoning within their local graphs. Theoretically, HSGM reduces worst-case complexity from $O(N^2)$ to $O\!\left(N\,k + (N/k)^2\right)$, with segment size $k \ll N$, and we derive Frobenius-norm bounds on the approximation error introduced by node summarization and sparsification thresholds. Empirically, on three benchmarks -- long-document AMR parsing, segment-level semantic role labeling (OntoNotes), and legal event extraction -- HSGM achieves \emph{2--4$\times$ inference speedup}, \emph{$>60\%$ reduction} in peak memory, and \emph{$\ge 95\%$} of baseline accuracy. Our approach unlocks scalable, accurate semantic modeling for ultra-long texts, enabling real-time and resource-constrained NLP applications.
- Abstract(参考訳): 長い文書のセマンティック解析は、ペア構成とメモリ要求の二次的な成長のために依然として困難である。
長さ$N$の入力を$M$意味セグメントに分解し、各セグメントに \emph{Local Semantic Graphs} を構築し、コンパクトな \emph{summary node} を抽出して \emph{Global Graph Memory} を形成する新しいフレームワークである \textbf{Hierarchical Segment-Graph Memory (HSGM) を紹介する。
HSGM は \emph{incremental updates} -- 新たに到着したセグメントのみがローカルグラフの構成とサマリノードの統合を発生させる -- をサポートし、一方 \emph{Hierarchical Query Processing} はサマリノード上のトップ$K$検索を通じて関連するセグメントを特定し、その後、ローカルグラフ内できめ細かい推論を行う。
理論的には、HSGMは最悪のケースの複雑さを$O(N^2)$から$O\!
セグメントサイズが $k \ll N$ である \left(N\,k + (N/k)^2\right)$ と、ノード要約とスペーサー化しきい値によって導入された近似誤差にフロベニウス-ノルム境界を導出する。
実証的には、長いドキュメントAMR解析、セグメントレベルのセマンティックロールラベリング(OntoNotes)、法的イベント抽出の3つのベンチマークで、HSGMは、ピークメモリにおける \emph{2--4$\times$ inference speedup}、 \emph{$>60\%$ reduction}、ベースライン精度の \emph{$\ge 95\%$}を達成している。
提案手法は,超長文に対するスケーラブルで高精度なセマンティックモデリングを開放し,リアルタイムかつリソース制約のあるNLPアプリケーションを実現する。
関連論文リスト
- Barycentric Neural Networks and Length-Weighted Persistent Entropy Loss: A Green Geometric and Topological Framework for Function Approximation [0.0]
BNN(Barycentric Neural Network)と呼ばれる新しいタイプの浅層ニューラルネットワークが提案されている。
我々のフレームワークは、BNNとLWPEに基づく損失関数を組み合わせたもので、非線形連続関数の柔軟で幾何学的に解釈可能な近似を提供することを目的としている。
論文 参考訳(メタデータ) (2025-09-08T13:47:21Z) - Sparse Probabilistic Graph Circuits [0.0]
Sparse PGCsは,スパースグラフの表現を直接操作する,トラクタブル生成モデルの新たなクラスである。
ド・ノボ薬物設計の文脈では、SPGCが正確な推論能力を保持し、メモリ効率と推論速度を改善し、重要な指標における難解なDGMの性能に匹敵することを示した。
論文 参考訳(メタデータ) (2025-08-11T08:47:27Z) - Attention with Trained Embeddings Provably Selects Important Tokens [73.77633297039097]
トーケン埋め込みは言語モデリングにおいて重要な役割を担っているが、この実践的関連性にもかかわらず、理論的な理解は限られている。
本論文は,勾配降下法により得られた埋め込み構造を特徴付けることにより,そのギャップを解消する。
実世界のデータセット(IMDB、Yelp)の実験では、我々の理論が明らかにしたものに近い現象が示されている。
論文 参考訳(メタデータ) (2025-05-22T21:00:09Z) - Graph Unfolding and Sampling for Transitory Video Summarization via Gershgorin Disc Alignment [48.137527345353625]
携帯電話からYouTubeやTikTokなどのソーシャルメディアサイトにアップロードされたユーザー生成ビデオ(UGV)は、短くて繰り返しではない。
我々は、ガーシュゴリンディスクアライメント(GDA)に基づく高速グラフサンプリングにより、遷移UGVを複数のディスクに線形時間で要約する。
提案アルゴリズムは,最先端の手法と比較して,映像の要約性能が向上し,複雑さが大幅に低減されていることを示す。
論文 参考訳(メタデータ) (2024-08-03T20:08:02Z) - Topology-aware Embedding Memory for Continual Learning on Expanding Networks [63.35819388164267]
本稿では,メモリリプレイ技術を用いて,メモリ爆発問題に対処する枠組みを提案する。
Topology-aware Embedding Memory (TEM) を用いたPDGNNは最先端技術よりも優れている。
論文 参考訳(メタデータ) (2024-01-24T03:03:17Z) - Semi-supervised Domain Adaptation on Graphs with Contrastive Learning and Minimax Entropy [12.209076900021621]
グラフ上の半教師付きドメイン適応(SSDA)は、ラベル付きソースグラフの知識を活用して、限られたラベルを持つターゲットグラフ上のノード分類を支援することを目的としている。
本稿では,textbfGraph textbfContrastive textbfLとminimax entropy trainingを用いたSemiGCLと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:15:57Z) - Coupling Global Context and Local Contents for Weakly-Supervised
Semantic Segmentation [54.419401869108846]
Weakly Supervised Semantic (WSSS)モデルを提案する。
グローバルなオブジェクトコンテキストを異なる粒度空間でキャプチャするために,フレキシブルなコンテキストアグリゲーションモジュールを提案する。
局所的な細粒度を集約するために、ボトムアップパラメータ学習可能な方法で意味的に一貫した特徴融合モジュールを提案する。
論文 参考訳(メタデータ) (2023-04-18T15:29:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。