論文の概要: HSGM: Hierarchical Segment-Graph Memory for Scalable Long-Text Semantics
- arxiv url: http://arxiv.org/abs/2509.18168v1
- Date: Wed, 17 Sep 2025 10:11:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.444759
- Title: HSGM: Hierarchical Segment-Graph Memory for Scalable Long-Text Semantics
- Title(参考訳): HSGM:スケーラブルな長文セマンティックスのための階層的なセグメントグラフメモリ
- Authors: Dong Liu, Yanxuan Yu,
- Abstract要約: textbfHierarchical Segment-Graph Memory (HSGM) - 長さ$N$の入力を意味のあるセグメントに分解する新しいフレームワーク。
HSGMはインセンメンタルアップデートをサポートする。ローカルグラフの構築とサマリノードの統合を行うのは,新たに到着したセグメントのみである。
提案手法は,超長文に対するスケーラブルで高精度なセマンティックモデリングを開放し,リアルタイムかつリソース制約のあるNLPアプリケーションを実現する。
- 参考スコア(独自算出の注目度): 5.216774377033164
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semantic parsing of long documents remains challenging due to quadratic growth in pairwise composition and memory requirements. We introduce \textbf{Hierarchical Segment-Graph Memory (HSGM)}, a novel framework that decomposes an input of length $N$ into $M$ meaningful segments, constructs \emph{Local Semantic Graphs} on each segment, and extracts compact \emph{summary nodes} to form a \emph{Global Graph Memory}. HSGM supports \emph{incremental updates} -- only newly arrived segments incur local graph construction and summary-node integration -- while \emph{Hierarchical Query Processing} locates relevant segments via top-$K$ retrieval over summary nodes and then performs fine-grained reasoning within their local graphs. Theoretically, HSGM reduces worst-case complexity from $O(N^2)$ to $O\!\left(N\,k + (N/k)^2\right)$, with segment size $k \ll N$, and we derive Frobenius-norm bounds on the approximation error introduced by node summarization and sparsification thresholds. Empirically, on three benchmarks -- long-document AMR parsing, segment-level semantic role labeling (OntoNotes), and legal event extraction -- HSGM achieves \emph{2--4$\times$ inference speedup}, \emph{$>60\%$ reduction} in peak memory, and \emph{$\ge 95\%$} of baseline accuracy. Our approach unlocks scalable, accurate semantic modeling for ultra-long texts, enabling real-time and resource-constrained NLP applications.
- Abstract(参考訳): 長い文書のセマンティック解析は、ペア構成とメモリ要求の二次的な成長のために依然として困難である。
長さ$N$の入力を$M$意味セグメントに分解し、各セグメントに \emph{Local Semantic Graphs} を構築し、コンパクトな \emph{summary node} を抽出して \emph{Global Graph Memory} を形成する新しいフレームワークである \textbf{Hierarchical Segment-Graph Memory (HSGM) を紹介する。
HSGM は \emph{incremental updates} -- 新たに到着したセグメントのみがローカルグラフの構成とサマリノードの統合を発生させる -- をサポートし、一方 \emph{Hierarchical Query Processing} はサマリノード上のトップ$K$検索を通じて関連するセグメントを特定し、その後、ローカルグラフ内できめ細かい推論を行う。
理論的には、HSGMは最悪のケースの複雑さを$O(N^2)$から$O\!
セグメントサイズが $k \ll N$ である \left(N\,k + (N/k)^2\right)$ と、ノード要約とスペーサー化しきい値によって導入された近似誤差にフロベニウス-ノルム境界を導出する。
実証的には、長いドキュメントAMR解析、セグメントレベルのセマンティックロールラベリング(OntoNotes)、法的イベント抽出の3つのベンチマークで、HSGMは、ピークメモリにおける \emph{2--4$\times$ inference speedup}、 \emph{$>60\%$ reduction}、ベースライン精度の \emph{$\ge 95\%$}を達成している。
提案手法は,超長文に対するスケーラブルで高精度なセマンティックモデリングを開放し,リアルタイムかつリソース制約のあるNLPアプリケーションを実現する。
関連論文リスト
- Incremental Graph Construction Enables Robust Spectral Clustering of Texts [3.0215204948822048]
隣接グラフは、テキスト埋め込みのスペクトルクラスタリングにおいて重要なステップであるが、しばしば脆弱なステップである。
簡単な$k$-NNグラフ構造を導入し、設計による接続性を維持する。
標準の$k$-NNグラフと比較すると、解接続されたコンポーネントが一般的であるロー・$k$レジームでは、我々のメソッドは優れています。
論文 参考訳(メタデータ) (2026-03-03T14:54:22Z) - Sparse by Rule: Probability-Based N:M Pruning for Spiking Neural Networks [66.61171793101872]
スパイキングニューラルネットワーク(SNN)は、イベント駆動のスパース計算を通じてエネルギー効率の高いインテリジェンスを約束するが、より深いアーキテクチャはパラメータと計算コストを増大させ、エッジデプロイメントを妨げている。
SNNプルーニングの最近の進歩は、この負担を軽減するのに役立っているが、既存の取り組みは、スパシティが高いが一般的なハードウェアでは加速が難しいインハン構造化プルーニング(emphunstructured pruning)と、デプロイが容易だが柔軟性に欠けるエンハン構造化プルーニング(emphstructured pruning)の2つのファミリーに限られる。
最初のSNNであるbfSpikeNMを紹介する。
論文 参考訳(メタデータ) (2025-11-15T08:23:20Z) - Barycentric Neural Networks and Length-Weighted Persistent Entropy Loss: A Green Geometric and Topological Framework for Function Approximation [0.0]
BNN(Barycentric Neural Network)と呼ばれる新しいタイプの浅層ニューラルネットワークが提案されている。
我々のフレームワークは、BNNとLWPEに基づく損失関数を組み合わせたもので、非線形連続関数の柔軟で幾何学的に解釈可能な近似を提供することを目的としている。
論文 参考訳(メタデータ) (2025-09-08T13:47:21Z) - Sparse Probabilistic Graph Circuits [0.0]
Sparse PGCsは,スパースグラフの表現を直接操作する,トラクタブル生成モデルの新たなクラスである。
ド・ノボ薬物設計の文脈では、SPGCが正確な推論能力を保持し、メモリ効率と推論速度を改善し、重要な指標における難解なDGMの性能に匹敵することを示した。
論文 参考訳(メタデータ) (2025-08-11T08:47:27Z) - Attention with Trained Embeddings Provably Selects Important Tokens [73.77633297039097]
トーケン埋め込みは言語モデリングにおいて重要な役割を担っているが、この実践的関連性にもかかわらず、理論的な理解は限られている。
本論文は,勾配降下法により得られた埋め込み構造を特徴付けることにより,そのギャップを解消する。
実世界のデータセット(IMDB、Yelp)の実験では、我々の理論が明らかにしたものに近い現象が示されている。
論文 参考訳(メタデータ) (2025-05-22T21:00:09Z) - Context-Aware Hierarchical Merging for Long Document Summarization [56.96619074316232]
本論文では,階層的なマージをソース文書からコンテキストと統合する手法を提案する。
法的および物語的領域を表すデータセットの実験結果は、文脈的拡張がゼロショットと階層的な融合ベースラインを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2025-02-03T01:14:31Z) - Graph Unfolding and Sampling for Transitory Video Summarization via Gershgorin Disc Alignment [48.137527345353625]
携帯電話からYouTubeやTikTokなどのソーシャルメディアサイトにアップロードされたユーザー生成ビデオ(UGV)は、短くて繰り返しではない。
我々は、ガーシュゴリンディスクアライメント(GDA)に基づく高速グラフサンプリングにより、遷移UGVを複数のディスクに線形時間で要約する。
提案アルゴリズムは,最先端の手法と比較して,映像の要約性能が向上し,複雑さが大幅に低減されていることを示す。
論文 参考訳(メタデータ) (2024-08-03T20:08:02Z) - Topology-aware Embedding Memory for Continual Learning on Expanding Networks [63.35819388164267]
本稿では,メモリリプレイ技術を用いて,メモリ爆発問題に対処する枠組みを提案する。
Topology-aware Embedding Memory (TEM) を用いたPDGNNは最先端技術よりも優れている。
論文 参考訳(メタデータ) (2024-01-24T03:03:17Z) - Semi-supervised Domain Adaptation on Graphs with Contrastive Learning and Minimax Entropy [12.209076900021621]
グラフ上の半教師付きドメイン適応(SSDA)は、ラベル付きソースグラフの知識を活用して、限られたラベルを持つターゲットグラフ上のノード分類を支援することを目的としている。
本稿では,textbfGraph textbfContrastive textbfLとminimax entropy trainingを用いたSemiGCLと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:15:57Z) - Coupling Global Context and Local Contents for Weakly-Supervised
Semantic Segmentation [54.419401869108846]
Weakly Supervised Semantic (WSSS)モデルを提案する。
グローバルなオブジェクトコンテキストを異なる粒度空間でキャプチャするために,フレキシブルなコンテキストアグリゲーションモジュールを提案する。
局所的な細粒度を集約するために、ボトムアップパラメータ学習可能な方法で意味的に一貫した特徴融合モジュールを提案する。
論文 参考訳(メタデータ) (2023-04-18T15:29:23Z) - Nearly Minimax Optimal Reward-free Reinforcement Learning [88.75843804630772]
本稿では、特にバッチ強化学習に適した報酬不要強化学習フレームワークと、複数の報酬関数に対するポリシーを必要とするシナリオについて検討する。
textbfStaged textbfSampling + textbfTruncated textbfPlanning (algoname) という新しい効率的なアルゴリズムを提供しています。
論文 参考訳(メタデータ) (2020-10-12T17:51:19Z) - All you need is a second look: Towards Tighter Arbitrary shape text
detection [80.85188469964346]
長い曲線のテキストインスタンスは、CNNの受信フィールドサイズが制限されているため、断片化されがちである。
矩形や四角形のバウンディングボックスを用いた単純な表現は、より難しい任意の形のテキストを扱う際に不足する。
textitNASKは、予測された幾何学的属性を使用して、より厳密な表現でテキストインスタンスを再構築する。
論文 参考訳(メタデータ) (2020-04-26T17:03:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。