論文の概要: Litrepl: Literate Paper Processor Promoting Transparency More Than Reproducibility
- arxiv url: http://arxiv.org/abs/2501.10738v1
- Date: Sat, 18 Jan 2025 12:01:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:23:34.714354
- Title: Litrepl: Literate Paper Processor Promoting Transparency More Than Reproducibility
- Title(参考訳): Litrepl: 再現性以上の透明性を促進するリテラル紙プロセッサ
- Authors: Sergei Mironov,
- Abstract要約: Litreplはコードセクションを認識し評価するためのテキスト処理ツールである。
プロジェクトJupyterにインスパイアされたLitreplは、研究資料の作成を促進することを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Litrepl is a lightweight text processing tool designed to recognize and evaluate code sections within Markdown or Latex documents. This functionality is useful for both batch document section evaluation and interactive coding within a text editor, provided a straightforward integration is established. Inspired by Project Jupyter, Litrepl aims to facilitate the creation of research documents. In the light of recent developments in software deployment, however, we have shifted our focus from informal reproducibility to enhancing transparency in communication with programming language interpreters, by either eliminating or clearly exposing mutable states within the communication process.
- Abstract(参考訳): LitreplはMarkdownやLatxドキュメント内のコードセクションを認識し評価するための軽量テキスト処理ツールである。
この機能は、バッチ文書セクションの評価とテキストエディタ内のインタラクティブコーディングの両方に役立つ。
プロジェクトJupyterにインスパイアされたLitreplは、研究資料の作成を促進することを目的としている。
しかし、近年のソフトウェア展開の進展により、我々は、非公式な再現性から、プログラム言語インタプリタとのコミュニケーションにおける透明性向上への焦点を、コミュニケーションプロセス内でミュータブルな状態を排除または明らかにすることでシフトしてきた。
関連論文リスト
- Contextual Document Embeddings [77.22328616983417]
本稿では,コンテキスト化された文書埋め込みのための2つの補完手法を提案する。
第一に、文書近傍を明示的にバッチ内コンテキスト損失に組み込む別のコントラスト学習目標である。
第二に、隣接する文書情報をエンコードされた表現に明示的にエンコードする新しいコンテキストアーキテクチャ。
論文 参考訳(メタデータ) (2024-10-03T14:33:34Z) - DragText: Rethinking Text Embedding in Point-based Image Editing [3.4248731707266264]
ポイントベースの画像編集は、コンテンツドラッグによる正確で柔軟な制御を可能にする。
編集過程におけるテキスト埋め込みの役割については,まだ十分に研究されていない。
そこで我々はDragTextを提案する。DragTextはドラッグ処理と同時にテキスト埋め込みを最適化し、修正された画像埋め込みと組み合わせる。
論文 参考訳(メタデータ) (2024-07-25T07:57:55Z) - Towards Improving Document Understanding: An Exploration on
Text-Grounding via MLLMs [96.54224331778195]
本稿では,画像中のテキストの空間的位置を識別し,MLLMを強化したテキストグラウンド文書理解モデルTGDocを提案する。
我々は,テキスト検出,認識,スポッティングなどの命令チューニングタスクを定式化し,視覚エンコーダと大言語モデルとの密接なアライメントを容易にする。
提案手法は,複数のテキストリッチベンチマークにまたがる最先端性能を実現し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-11-22T06:46:37Z) - LILO: Learning Interpretable Libraries by Compressing and Documenting Code [71.55208585024198]
LILOは、反復的に合成、圧縮、文書化を行う、ニューロシンボリックなフレームワークである。
LILOは、LLM誘導プログラム合成と、Stitchから自動化された最近のアルゴリズムの進歩を組み合わせたものである。
LILOのシンセサイザーが学習した抽象化を解釈し、デプロイするのを手助けすることで、AutoDocがパフォーマンスを向上させることが分かりました。
論文 参考訳(メタデータ) (2023-10-30T17:55:02Z) - Beyond the Chat: Executable and Verifiable Text-Editing with LLMs [87.84199761550634]
近年,Large Language Models (LLMs) を利用した会話インタフェースが,文書編集時にフィードバックを得る手段として人気になっている。
InkSyncは、編集中のドキュメント内で直接実行可能な編集を推奨する編集インターフェースである。
論文 参考訳(メタデータ) (2023-09-27T00:56:17Z) - AI Literature Review Suite [0.0]
総合的な文献レビューを提供するために、いくつかの機能を統合するAI Literature Review Suiteを紹介します。
このツールは、オープンアクセス科学、大規模言語モデル(LLM)、自然言語処理の力を活用して、PDFファイルの検索、ダウンロード、整理を可能にする。
このスイートには、組織、対話、クエリのための統合プログラムや、文献レビューの要約も備えている。
論文 参考訳(メタデータ) (2023-07-27T17:30:31Z) - TextFormer: A Query-based End-to-End Text Spotter with Mixed Supervision [61.186488081379]
Transformerアーキテクチャを用いた問合せベースのエンドツーエンドテキストスポッターであるTextFormerを提案する。
TextFormerは、画像エンコーダとテキストデコーダの上に構築され、マルチタスクモデリングのための共同セマンティック理解を学ぶ。
分類、セグメンテーション、認識のブランチの相互訓練と最適化を可能にし、より深い特徴共有をもたらす。
論文 参考訳(メタデータ) (2023-06-06T03:37:41Z) - A Simple and Efficient Probabilistic Language model for Code-Mixed Text [0.0]
コード混合テキストに対する効率的な単語埋め込みを構築するための単純な確率的アプローチを提案する。
双方向LSTMとSVMを用いた分類作業の有効性を検討した。
論文 参考訳(メタデータ) (2021-06-29T05:37:57Z) - Worse WER, but Better BLEU? Leveraging Word Embedding as Intermediate in
Multitask End-to-End Speech Translation [127.54315184545796]
音声翻訳(ST)は、ソース言語の音声からターゲット言語のテキストへの変換を学習することを目的としている。
単語埋め込みを中間語として活用することでマルチタスクSTモデルを改善することを提案する。
論文 参考訳(メタデータ) (2020-05-21T14:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。