論文の概要: OverleafCopilot: Empowering Academic Writing in Overleaf with Large Language Models
- arxiv url: http://arxiv.org/abs/2403.09733v1
- Date: Wed, 13 Mar 2024 07:52:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 21:44:54.571779
- Title: OverleafCopilot: Empowering Academic Writing in Overleaf with Large Language Models
- Title(参考訳): OverleafCopilot: 大規模言語モデルによるオーバーリーフにおけるアカデミックライティングの強化
- Authors: Haomin Wen, Zhenjie Wei, Yan Lin, Jiyuan Wang, Yuxuan Liang, Huaiyu Wan,
- Abstract要約: OverleafCopilotは、LLMとOverleafをシームレスに統合する最初のツールである。
PromptGeniusは、研究者が高品質な最新プロンプトを見つけ、共有するためのウェブサイトだ。
私たちの仕事は、学術的な筆記の実践に革命をもたらす可能性があると信じています。
- 参考スコア(独自算出の注目度): 17.685029691054417
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid development of Large Language Models (LLMs) has facilitated a variety of applications from different domains. In this technical report, we explore the integration of LLMs and the popular academic writing tool, Overleaf, to enhance the efficiency and quality of academic writing. To achieve the above goal, there are three challenges: i) including seamless interaction between Overleaf and LLMs, ii) establishing reliable communication with the LLM provider, and iii) ensuring user privacy. To address these challenges, we present OverleafCopilot, the first-ever tool (i.e., a browser extension) that seamlessly integrates LLMs and Overleaf, enabling researchers to leverage the power of LLMs while writing papers. Specifically, we first propose an effective framework to bridge LLMs and Overleaf. Then, we developed PromptGenius, a website for researchers to easily find and share high-quality up-to-date prompts. Thirdly, we propose an agent command system to help researchers quickly build their customizable agents. OverleafCopilot (https://chromewebstore.google.com/detail/overleaf-copilot/eoadabdpninlhkkbhngoddfjianhlghb ) has been on the Chrome Extension Store, which now serves thousands of researchers. Additionally, the code of PromptGenius is released at https://github.com/wenhaomin/ChatGPT-PromptGenius. We believe our work has the potential to revolutionize academic writing practices, empowering researchers to produce higher-quality papers in less time.
- Abstract(参考訳): LLM(Large Language Models)の急速な開発により、さまざまなドメインから様々なアプリケーションが開発されるようになった。
本稿では,LLMと人気のある学術書記ツールであるOverleafを統合することにより,学術書記の効率化と品質向上を図る。
上記の目標を達成するには、3つの課題がある。
一 オーバーリーフとLLMのシームレスな相互作用を含むもの
二 LLMプロバイダとの信頼性の高い通信を確立すること。
三 ユーザのプライバシーを確保すること。
これらの課題に対処するために、私たちは、LLMとOverleafをシームレスに統合する最初のツール(ブラウザ拡張)であるOverleafCopilotを紹介します。
具体的には、まずLLMとOverleafを橋渡しする効果的なフレームワークを提案する。
そして、研究者が高品質な最新プロンプトを見つけ、共有するためのウェブサイトPromptGeniusを開発した。
第3に、研究者がカスタマイズ可能なエージェントを迅速に構築するためのエージェントコマンドシステムを提案する。
OverleafCopilot (https://chromewebstore.google.com/detail/overleaf-copilot/eoadabdpninlhkbhngoddfjianhlghb )はChrome Extension Storeに登録されており、現在数千人の研究者が利用している。
さらにPromptGeniusのコードはhttps://github.com/wenhaomin/ChatGPT-PromptGeniusで公開されている。
私たちの研究は、学術的な執筆プラクティスに革命をもたらす可能性があり、研究者がより少ない時間で高品質な論文を作成できるようにすることを信じています。
関連論文リスト
- Prompto: An open source library for asynchronous querying of LLM endpoints [1.5558845602219702]
promptoはオープンソースのPythonライブラリで、Large Language Modelエンドポイントの非同期クエリを容易にする。
我々のライブラリーは、研究者や開発者がより効果的にLLMと対話できるようにし、より高速な実験と評価を可能にします。
論文 参考訳(メタデータ) (2024-08-12T15:19:59Z) - CollabStory: Multi-LLM Collaborative Story Generation and Authorship Analysis [5.929552001093879]
私たちはCollabStoryと呼ばれる、初めてLLM生成のコラボレーティブなストーリーデータセットを生成します。
オープンソース命令チューニング LLM を用いて,32k 以上のストーリーを生成する。
我々は、人間と人間の複数著者によるタスクや分析の標準となるPANタスクを拡張した。
論文 参考訳(メタデータ) (2024-06-18T14:35:12Z) - AgentLite: A Lightweight Library for Building and Advancing
Task-Oriented LLM Agent System [91.41155892086252]
LLMエージェントの研究を簡略化する新しいAIエージェントライブラリであるAgentLiteをオープンソースとして公開する。
AgentLiteは、タスクを分解するエージェントの機能を強化するために設計されたタスク指向フレームワークである。
我々は,その利便性と柔軟性を示すために,AgentLiteで開発された実用アプリケーションを紹介した。
論文 参考訳(メタデータ) (2024-02-23T06:25:20Z) - LitLLM: A Toolkit for Scientific Literature Review [15.080020634480272]
Toolkit は Retrieval Augmented Generation (RAG) の原則に基づいている。
システムはまずWeb検索を開始し、関連書類を検索する。
第2に、ユーザが提供する抽象化に基づいて、検索した論文を再ランクする。
第3に、再ランクされた結果と要約に基づいて、関連する作業部を生成する。
論文 参考訳(メタデータ) (2024-02-02T02:41:28Z) - Large Language Models for Generative Information Extraction: A Survey [89.71273968283616]
大規模言語モデル(LLM)は、テキスト理解と生成において顕著な能力を示した。
各種IEサブタスクと技術の観点から,これらの作品を分類して概観する。
我々は,最も先進的な手法を実証的に分析し,LLMによるIEタスクの出現傾向を明らかにする。
論文 参考訳(メタデータ) (2023-12-29T14:25:22Z) - LMRL Gym: Benchmarks for Multi-Turn Reinforcement Learning with Language
Models [56.25156596019168]
本稿では,LMRL-Gymベンチマークを用いて,大規模言語モデル(LLM)のマルチターンRLの評価を行う。
我々のベンチマークは8つの異なる言語タスクで構成されており、複数ラウンドの言語相互作用が必要であり、オープンエンド対話やテキストゲームにおける様々なタスクをカバーする。
論文 参考訳(メタデータ) (2023-11-30T03:59:31Z) - Octavius: Mitigating Task Interference in MLLMs via LoRA-MoE [83.00018517368973]
LLM(Large Language Models)は、命令チューニングを通じて、ゼロショット能力をマルチモーダル学習に拡張することができる。
ネガティブな対立や干渉は パフォーマンスに悪影響を及ぼすかもしれない
我々は、よく知られたMixture-of-Experts(MoE)と代表的なPEFT技法の1つであるLoRA(LoRA-MoE)を組み合わせて、マルチモーダル学習のための新しいLLMベースのデコーダ(LoRA-MoE)を設計する。
論文 参考訳(メタデータ) (2023-11-05T15:48:29Z) - AskIt: Unified Programming Interface for Programming with Large Language
Models [0.0]
大規模言語モデル(LLM)は創発能力として知られるユニークな現象を示し、多くのタスクにまたがって適応性を示す。
本稿では,LLM用に特別に設計されたドメイン固有言語であるAskItを紹介する。
50タスクにわたって、AskItは簡潔なプロンプトを生成し、ベンチマークよりも16.14パーセントのプロンプト長の削減を実現した。
論文 参考訳(メタデータ) (2023-08-29T21:44:27Z) - Calculating Originality of LLM Assisted Source Code [0.0]
本稿では,学生がソースコードを書く際の本来の取り組み(およびLLMの貢献)を決定するニューラルネットワークベースのツールを提案する。
我々のツールは、コルモゴロフ複雑性のような最小記述長測度によって動機付けられている。
論文 参考訳(メタデータ) (2023-07-10T11:30:46Z) - Building Cooperative Embodied Agents Modularly with Large Language
Models [104.57849816689559]
本研究では, 分散制御, 生の知覚観察, コストのかかるコミュニケーション, 様々な実施環境下でインスタンス化された多目的タスクといった課題に対処する。
我々は,LLMの常識知識,推論能力,言語理解,テキスト生成能力を活用し,認知に触発されたモジュラーフレームワークにシームレスに組み込む。
C-WAH と TDW-MAT を用いた実験により, GPT-4 で駆動される CoELA が, 強い計画に基づく手法を超越し, 創発的な効果的なコミュニケーションを示すことを示した。
論文 参考訳(メタデータ) (2023-07-05T17:59:27Z) - Low-code LLM: Graphical User Interface over Large Language Models [115.08718239772107]
本稿では,人間-LLMインタラクションフレームワークであるLow-code LLMを紹介する。
より制御可能で安定した応答を実現するために、6種類のシンプルなローコードビジュアルプログラミングインタラクションを組み込んでいる。
ユーザフレンドリなインタラクション,制御可能な生成,広い適用性という,低コード LLM の3つの利点を強調した。
論文 参考訳(メタデータ) (2023-04-17T09:27:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。