論文の概要: LaTeX Compilation: Challenges in the Era of LLMs
- arxiv url: http://arxiv.org/abs/2603.02873v4
- Date: Wed, 11 Mar 2026 01:22:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 14:12:43.965183
- Title: LaTeX Compilation: Challenges in the Era of LLMs
- Title(参考訳): LaTeXコンパイル - LLM時代の課題
- Authors: Tianyou Liu, Ziqiang Li, Xurui Liu, Yu Wu, Yansong Li,
- Abstract要約: 大規模言語モデル(LLM)は、科学的な記述や制限、重要なトークンコストをますます支援している。
この論文は分析する。
効率の限界を示すため、コンパイルとユーザエクスペリエンス設計における根本的な欠陥の1つです。
生成したセマンティクス、エラーローカライゼーション、ツールエコシステム。
LLM。
- 参考スコア(独自算出の注目度): 7.977620259277583
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As large language models (LLMs) increasingly assist scientific writing, limitations and the significant token cost of TeX become more and more visible. This paper analyzes TeX's fundamental defects in compilation and user experience design to illustrate its limitations on compilation efficiency, generated semantics, error localization, and tool ecosystem in the era of LLMs. As an alternative, Mogan STEM, a WYSIWYG structured editor, is introduced. Mogan outperforms TeX in the above aspects by its efficient data structure, fast rendering, and on-demand plugin loading. Extensive experiments are conducted to verify the benefits on compilation/rendering time and performance in LLM tasks. Furthermore, we show that due to Mogan's lower information entropy, it is more efficient to use .tmu (the document format of Mogan) to fine-tune LLMs than TeX. Therefore, we launch an appeal for larger experiments on LLM training using the .tmu format.
- Abstract(参考訳): 大きな言語モデル(LLM)が科学的な記述を補助するようになるにつれ、TeXの重要なトークンコストや制限がますます可視化されるようになった。
本稿では, コンパイル効率, 生成セマンティクス, エラーローカライゼーション, ツールエコシステムの限界を示すために, コンパイルおよびユーザエクスペリエンス設計におけるTeXの根本的な欠陥を分析した。
代替として、WYSIWYG構造化エディタであるMogan STEMが導入された。
Moganは、その効率的なデータ構造、高速レンダリング、オンデマンドプラグインのロードによって、上記の点においてTeXより優れています。
LLMタスクにおけるコンパイル/レンダリング時間と性能の利点を検証するために、大規模な実験が行われた。
さらに,モガンの情報エントロピーが低いため,より効率的に利用できることが示唆された。
tmu(Moganの文書形式)をTeXより細いLCMに変換する。
そこで我々は,LLM トレーニングにおける .NET を用いたより大きな実験にアピールする。
tmuフォーマット。
関連論文リスト
- Evaluating Small Decoder-Only Language Models for Grammar Correction and Text Simplification [0.0]
本稿では,小型のデコーダのみの言語モデルが文法修正やテキストの簡略化といったタスクに対して,効率的な代替手段となるかどうかを考察する。
本稿では,JFLEG と ASSET データセット上で連続的に実行される小型言語モデルのボックス外でのテストに焦点をあてる。
論文 参考訳(メタデータ) (2026-01-07T12:39:31Z) - GRIP: In-Parameter Graph Reasoning through Fine-Tuning Large Language Models [40.5886835740214]
大規模言語モデル(LLM)は、逐次テキストデータのモデリングにおいて顕著な能力を示した。
グラフから複雑な関係情報を内部化できる新しいフレームワークGRIPを提案する。
この知識は軽量な LoRA パラメータに効率的に格納され、微調整された LLM が幅広いグラフ関連タスクを実行できる。
論文 参考訳(メタデータ) (2025-11-06T21:56:58Z) - TeXpert: A Multi-Level Benchmark for Evaluating LaTeX Code Generation by LLMs [0.0]
LLM(Large Language Models)は、研究者が出版可能な資料を作成できる有望な機会を提供する。
我々のベンチマークデータセットは、科学文書の構成要素に焦点を当てたコードを生成するための自然言語のプロンプトである。
オープンおよびクローズドソース LLM に対する評価では,複数の重要な知見が浮き彫りにされている。
論文 参考訳(メタデータ) (2025-06-20T13:39:16Z) - TRAPDOC: Deceiving LLM Users by Injecting Imperceptible Phantom Tokens into Documents [8.44109812649182]
大規模言語モデル(LLM)への過度な依存は、重要な社会的問題として浮上している。
そこで本研究では,LLMがユーザにとって妥当と思われるが,実際には誤りである出力を生成するために,不知覚なファントムトークンを文書に注入する手法を提案する。
本手法を応用して,高信頼性LLMユーザを欺くためのフレームワークであるTRAPDOCを導入する。
論文 参考訳(メタデータ) (2025-05-30T07:16:53Z) - Training Large Recommendation Models via Graph-Language Token Alignment [53.3142545812349]
本稿では,グラフ言語トークンアライメントによる大規模推薦モデルのトレーニングを行う新しいフレームワークを提案する。
インタラクショングラフからアイテムとユーザノードを事前訓練されたLLMトークンにアライメントすることで、GLTAはLLMの推論能力を効果的に活用する。
さらに、エンドツーエンドのアイテム予測のためのトークンアライメントを最適化するために、GLLM(Graph-Language Logits Matching)を導入する。
論文 参考訳(メタデータ) (2025-02-26T02:19:10Z) - Speech Translation with Large Language Models: An Industrial Practice [64.5419534101104]
LLM-STは,事前学習型大言語モデル(LLM)に基づいて構築された,新規で効果的な音声翻訳モデルである。
大規模言語モデル(LLM)を音声エンコーダと統合し、マルチタスクの命令チューニングを利用することで、LLM-STは正確なタイムスタンプと翻訳を生成することができる。
英語と中国語のデータセットの厳密な実験を通じて,LLM-STの異常な性能を示す。
論文 参考訳(メタデータ) (2023-12-21T05:32:49Z) - AlignedCoT: Prompting Large Language Models via Native-Speaking Demonstrations [52.43593893122206]
Alignedcotは、大規模言語モデルを呼び出すためのコンテキスト内学習技術である。
ゼロショットシナリオでは、一貫した正しいステップワイズプロンプトを達成する。
数学的推論とコモンセンス推論の実験を行う。
論文 参考訳(メタデータ) (2023-11-22T17:24:21Z) - Struc-Bench: Are Large Language Models Really Good at Generating Complex Structured Data? [49.688233418425995]
Struc-Benchは、大きな言語モデル(LLM)を特徴とする包括的なベンチマークである。
Pスコア(Prompting Score)とHスコア(Heuristical Score)の2つの革新的な指標を提案する。
実験の結果,LLaMA-7Bに構造認識の微調整を適用すると,性能が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2023-09-16T11:31:58Z) - Simultaneous Machine Translation with Large Language Models [51.470478122113356]
我々は,SimulMTタスクに大規模言語モデルを適用する可能性を検討する。
MUST-Cデータセットと異なる9言語でtextttLlama2-7b-chatモデルを用いて実験を行った。
その結果,LLM は BLEU と LAAL の指標で専用MT モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-09-13T04:06:47Z) - Instruction Tuning for Large Language Models: A Survey [52.86322823501338]
我々は、教師付き微調整(SFT)の一般的な方法論を含む、文献の体系的なレビューを行う。
また、既存の戦略の欠陥を指摘しながら、SFTの潜在的な落とし穴についても、それに対する批判とともに検討する。
論文 参考訳(メタデータ) (2023-08-21T15:35:16Z) - TIM: Teaching Large Language Models to Translate with Comparison [78.66926087162672]
本稿では,LLMに翻訳学習を教えるために,サンプルを用いた新しいフレームワークを提案する。
我々のアプローチは、正しい翻訳例と間違った翻訳例をモデルに提示し、好みの損失を使ってモデルの学習をガイドすることである。
本研究は,翻訳タスクのための微調整LDMの新しい視点を提供し,高品質な翻訳を実現するための有望なソリューションを提供する。
論文 参考訳(メタデータ) (2023-07-10T08:15:40Z) - PiVe: Prompting with Iterative Verification Improving Graph-based Generative Capability of LLMs [28.33598529903845]
大規模言語モデルの出力の検証モジュールとして機能するために,小言語モデルをいかに訓練するかを示す。
また,検証モジュールがテキスト・ツー・グラフ生成タスクに対して,よりコスト効率のよいソリューションのために,繰り返し修正をオフラインで適用できることを示す。
論文 参考訳(メタデータ) (2023-05-21T08:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。