論文の概要: OVT-MLCS: An Online Visual Tool for MLCS Mining from Long or Big Sequences
- arxiv url: http://arxiv.org/abs/2604.13037v1
- Date: Fri, 09 Jan 2026 02:14:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-19 19:09:11.627429
- Title: OVT-MLCS: An Online Visual Tool for MLCS Mining from Long or Big Sequences
- Title(参考訳): OVT-MLCS - 長いシーケンスあるいは大きなシーケンスからMLCSをマイニングするためのオンラインビジュアルツール
- Authors: Zhi Wang, Yanni Li, Tihua Duan, Bing Liu, Liyong Zhang, Hui Li,
- Abstract要約: 本稿では,大規模シーケンスをマイニングするためのキーポイントベースのtextitMLCSアルゴリズムを提案する。
OVT-MLCSと呼ばれる新しいオンラインビジュアルテキストMLCSマイニングツールも提示する。
OVT-MLCSは、長いシーケンスや大きなシーケンスからグラフやテキストの形式で、テキストMLCSの効果的なオンラインマイニング、保存、ダウンロードを可能にする。
- 参考スコア(独自算出の注目度): 10.904598342146906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mining multiple longest common subsequences (\textit{MLCS}) from a set of sequences of three or more over a finite alphabet $Σ$ (a classical NP-hard problem) is an important task in a wide variety of application fields. Unfortunately, there is still no exact \textit{MLCS} algorithm/tool that can handle long (length $\ge$ 1,000) or big (length $\ge$ 10,000) sequences, which seriously hinders the development and utilization of massive long or big sequences from various application fields today. To address the challenge, we first propose a novel key point-based \textit{MLCS} algorithm for mining big sequences, called \textit{KP-MLCS}, and then present a new method, which can compactly represent all mined \textit{MLCSs} and quickly reveal common patterns among them. Furthermore, by introducing some new techniques, e.g., real-time graphic visualization and serialization, we have developed a new online visual \textit{MLCS} mining tool, called OVT-MLCS. OVT-MLCS demonstrates that it not only enables effective online mining, storing, and downloading of \textit{MLCSs} in the form of graphs and text from long or big sequences with a scale of 3 to 5000 but also provides user-friendly interactive functions to facilitate inspection and analysis of the mined \textit{MLCS}s. We believe that the functions provided by OVT-MLCS will promote stronger and wider applications of \textit{MLCS}.
- Abstract(参考訳): 複数の長い共通部分列 (\textit{MLCS}) を有限アルファベット$Σ$ (古典的なNPハード問題) 上の3つ以上の列から抽出することは、様々な応用分野において重要な課題である。
残念ながら、長い($\ge$1,000)または大きい($\ge$10,000)シーケンスを処理できる正確な \textit{MLCS} アルゴリズムやツールがまだ存在しません。
この課題に対処するために,我々はまず,大きなシーケンスをマイニングするキーポイントベース \textit{MLCS} アルゴリズムを提案し,次に,すべてのマイニングされた \textit{MLCSs} をコンパクトに表現し,それらの共通パターンを素早く明らかにする新しい手法を提案する。
さらに,OVT-MLCSと呼ばれるオンラインビジュアルなMLCSマイニングツールを開発した。
OVT-MLCSは、3から5000のスケールでグラフや大きなシーケンスのグラフやテキストの形式でのオンラインマイニング、保存、ダウンロードを可能にするだけでなく、マイニングされた \textit{MLCS}のインスペクションと分析を容易にするユーザフレンドリな対話機能も提供することを示した。
我々は,OVT-MLCSが提供する関数が,より強く,より広い応用を促進すると信じている。
関連論文リスト
- $\mathcal{V}isi\mathcal{P}runer$: Decoding Discontinuous Cross-Modal Dynamics for Efficient Multimodal LLMs [26.779915891040236]
我々は,LLaVA-v1.5 7B上での視線関連注意計算の最大99%,FLOPの最大53.9%を削減できるトレーニングフリープルーニングフレームワークであるemphVisiPrunerを提案する。
さらに、モデルアーキテクチャと本質的なレイヤワイド処理ダイナミクスを整合させることにより、効率的なMLLMのトレーニングのための実用的なガイドラインを提供する。
論文 参考訳(メタデータ) (2025-10-20T06:40:17Z) - MeshLLM: Empowering Large Language Models to Progressively Understand and Generate 3D Mesh [79.20802127426003]
MeshLLMは、大規模言語モデル(LLM)を活用して、テキストシリアライズされた3Dメッシュを理解して生成するフレームワークである。
我々は3次元メッシュを構造的に意味のあるサブユニットに分割するプリミティブ・メシュ分解戦略を導入する。
実験により、MeshLLMはメッシュ生成の品質と形状理解の両方において最先端のLLaMA-Meshよりも優れていることが示された。
論文 参考訳(メタデータ) (2025-08-02T07:37:37Z) - ST$^3$: Accelerating Multimodal Large Language Model by Spatial-Temporal Visual Token Trimming [14.937905258757635]
$textbfST3$は、再トレーニングせずにMLLM推論を高速化するように設計されたフレームワークである。
$textbfST3$は、既存のトレーニング済みMLLMにシームレスに統合できる。
論文 参考訳(メタデータ) (2024-12-28T10:17:29Z) - Extract, Define, Canonicalize: An LLM-based Framework for Knowledge Graph Construction [12.455647753787442]
抽出・デファイン・カノニケーズ(EDC)という3相フレームワークを提案する。
EDCはフレキシブルで、事前に定義されたターゲットスキーマが利用可能で、そうでない場合に適用される。
EDCがパラメータチューニングなしで高品質な三重項を抽出できることを実証する。
論文 参考訳(メタデータ) (2024-04-05T02:53:51Z) - M$^{2}$Chat: Empowering VLM for Multimodal LLM Interleaved Text-Image Generation [24.070247575655998]
textbf$M2Chat$は、インターリーブされたテキストイメージの会話を生成するための新しい統合マルチモーダルLLMフレームワークである。
M3Adapter$は、マルチモーダルプロンプトから、粒度の低い視覚情報と高レベルのセマンティック機能を統合する。
M3FT$ fine-tuning strategy イメージテキストアライメントとビジュアルインストラクションのために、パラメータの分離したグループを最適化する。
論文 参考訳(メタデータ) (2023-11-29T11:30:33Z) - LM-Infinite: Zero-Shot Extreme Length Generalization for Large Language Models [83.98062659664785]
大規模言語モデル(LLM)は通常、トランスフォーマーアーキテクチャの2次複雑さのために短いテキストセグメント(例:4Kトークン)でトレーニングする。
この研究は、この長大一般化失敗に寄与する3つの主要な要因を特定する。
本研究では,LLMの長期処理能力を高めるための簡易かつ効果的な手法であるLM-Infiniteを提案する。
論文 参考訳(メタデータ) (2023-08-30T16:47:51Z) - LongNet: Scaling Transformers to 1,000,000,000 Tokens [146.4077038371075]
LongNetはTransformerの変種で、シーケンス長を10億以上のトークンに拡張できる。
我々の研究は、例えば、コーパス全体やインターネット全体をシーケンスとして扱うなど、非常に長いシーケンスをモデリングする新たな可能性を開く。
論文 参考訳(メタデータ) (2023-07-05T17:59:38Z) - Simplifying and Understanding State Space Models with Diagonal Linear
RNNs [56.33053691749856]
本研究は、離散化ステップを解消し、バニラ対角線形RNNに基づくモデルを提案する。
概念的にはるかに単純であるにもかかわらず、$mathrmDLR$は以前提案したSSMと同じくらいのパフォーマンスを示す。
また、合成シーケンス・ツー・シーケンス・タスクのスイートによって、SSMとアテンションベースモデルの表現性も特徴付ける。
論文 参考訳(メタデータ) (2022-12-01T18:53:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。