論文の概要: InteractiveSurvey: An LLM-based Personalized and Interactive Survey Paper Generation System
- arxiv url: http://arxiv.org/abs/2504.08762v1
- Date: Mon, 31 Mar 2025 04:23:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-27 11:44:56.570296
- Title: InteractiveSurvey: An LLM-based Personalized and Interactive Survey Paper Generation System
- Title(参考訳): InteractiveSurvey: LLMに基づくパーソナライズされたインタラクティブな調査用紙生成システム
- Authors: Zhiyuan Wen, Jiannong Cao, Zian Wang, Beichen Guo, Ruosong Yang, Shuaiqi Liu,
- Abstract要約: 大規模言語モデル(LLM)と検索強化世代(RAG)は、複数の参照から調査論文を合成する研究を促進する。
本稿では,LLMに基づくパーソナライズされたインタラクティブな調査用紙生成システムであるInteractiveSurveyを紹介する。
- 参考スコア(独自算出の注目度): 29.924809109589518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The exponential growth of academic literature creates urgent demands for comprehensive survey papers, yet manual writing remains time-consuming and labor-intensive. Recent advances in large language models (LLMs) and retrieval-augmented generation (RAG) facilitate studies in synthesizing survey papers from multiple references, but most existing works restrict users to title-only inputs and fixed outputs, neglecting the personalized process of survey paper writing. In this paper, we introduce InteractiveSurvey - an LLM-based personalized and interactive survey paper generation system. InteractiveSurvey can generate structured, multi-modal survey papers with reference categorizations from multiple reference papers through both online retrieval and user uploads. More importantly, users can customize and refine intermediate components continuously during generation, including reference categorization, outline, and survey content through an intuitive interface. Evaluations of content quality, time efficiency, and user studies show that InteractiveSurvey is an easy-to-use survey generation system that outperforms most LLMs and existing methods in output content quality while remaining highly time-efficient.
- Abstract(参考訳): 学術文献の急激な成長は、総合的な調査論文に対する緊急の要求を生じさせるが、手書きの執筆は時間と労力がかかるままである。
近年の大規模言語モデル (LLM) と検索強化世代 (RAG) の進歩は, 調査論文を複数の参照から合成する研究を促進するが, 既存のほとんどの研究は, ユーザをタイトルのみの入力と固定出力に制限し, 調査論文のパーソナライズされたプロセスを無視している。
本稿では,LLMに基づくパーソナライズされたインタラクティブな調査用紙生成システムであるInteractiveSurveyを紹介する。
InteractiveSurveyは、オンライン検索とユーザアップロードの両方を通じて、複数の参照論文から参照分類された構造化されたマルチモーダルな調査論文を生成することができる。
さらに重要なのは、ユーザは、参照の分類、アウトライン、コンテンツを直感的なインターフェースで調査するなど、世代毎に中間コンポーネントを継続的にカスタマイズし、洗練することができることだ。
コンテンツ品質,時間効率,ユーザスタディの評価から,InteractiveSurveyは,ほとんどのLCMや既存の方法よりも高い性能を保ちながら,高い時間効率を保ちながら,アウトプット品質を向上する,使いやすいサーベイ生成システムであることが示された。
関連論文リスト
- Deep Literature Survey Automation with an Iterative Workflow [30.923568155892184]
我々のフレームワークは 再帰的なアウトライン生成に基づく 探索とコヒーレンスの両方を保証する
忠実な紙レベル接地を実現するため,各紙をその寄与,方法,発見に蒸留する紙カードを設計する。
確立されたトピックと新興トピックの両方の実験では、コンテンツカバレッジ、構造的コヒーレンス、引用品質の最先端のベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2025-10-24T14:41:26Z) - Leveraging LLMs for Semi-Automatic Corpus Filtration in Systematic Literature Reviews [5.911820207772152]
本稿では,複数の大規模言語モデル(LLM)を活用し,記述的プロンプトに基づいて論文を分類し,共同で決定するパイプラインを提案する。
プロセス全体は、オープンソースのビジュアルアナリティクスWebインターフェースであるLLMSurverを介して、人間によって管理され、インタラクティブに制御されます。
その結果、パイプラインは、単一アノテータよりもエラー率を低くしながら、手作業を大幅に削減することを示した。
論文 参考訳(メタデータ) (2025-10-13T13:48:29Z) - SurveyG: A Multi-Agent LLM Framework with Hierarchical Citation Graph for Automated Survey Generation [4.512335376984058]
大規模言語モデル(LLM)は、調査用紙の自動生成にますます採用されている。
LLMに基づくエージェントフレームワークである textbfSurveyG を提案する。
textbfFoundation、textbfDevelopment、textbfFrontierの3つのレイヤで構成されており、セミナルな作品から漸進的な進歩、新たな方向性までの研究の進化を捉えている。
論文 参考訳(メタデータ) (2025-10-09T03:14:20Z) - How Do LLM-Generated Texts Impact Term-Based Retrieval Models? [76.92519309816008]
本稿では,大規模言語モデル(LLM)が項ベース検索モデルに与える影響について検討する。
言語学的解析により,LLM生成テキストはよりスムーズで低周波なZipf勾配を示すことが明らかとなった。
本研究は,項分布がクエリと密接に一致した文書を優先して,項ベース検索モデルがソースバイアスを示すかどうかを考察する。
論文 参考訳(メタデータ) (2025-08-25T06:43:27Z) - Can LLMs Generate Tabular Summaries of Science Papers? Rethinking the Evaluation Protocol [83.90769864167301]
文献レビュー表は、科学論文の集合を要約し比較するために欠かせないものである。
学術論文の収集にあたり,ユーザの情報ニーズを最大限に満たす表を作成するタスクについて検討する。
我々の貢献は、現実世界で遭遇する3つの重要な課題に焦点を当てている: (i)ユーザープロンプトは、しばしば未特定である; (ii)検索された候補論文は、しばしば無関係な内容を含む; (iii)タスク評価は、浅いテキスト類似性技術を超えて進むべきである。
論文 参考訳(メタデータ) (2025-04-14T14:52:28Z) - SurveyForge: On the Outline Heuristics, Memory-Driven Generation, and Multi-dimensional Evaluation for Automated Survey Writing [13.101632066188532]
本研究では,人間の記述したアウトラインの論理構造を解析し,アウトラインを生成するサーベイサーベイForgeを紹介する。
総合的な評価を実現するために,100件の人書き調査論文を含むSurveyBenchを構築した。
実験では、SurveyはAutoSurveyのような以前の作業より優れていることが示されている。
論文 参考訳(メタデータ) (2025-03-06T17:15:48Z) - Personalized Generation In Large Model Era: A Survey [90.7579254803302]
大規模モデルの時代には、コンテンツ生成は徐々にパーソナライズドジェネレーション(PGen)へとシフトしている。
本報告では,PGen に関する総合的な調査を行い,この急速に成長する分野における既存研究について考察する。
複数のモダリティにまたがるPGen研究をブリッジすることで、この調査は知識共有と学際的コラボレーションを促進する貴重な情報源となる。
論文 参考訳(メタデータ) (2025-03-04T13:34:19Z) - Personalized Multimodal Large Language Models: A Survey [127.9521218125761]
マルチモーダル大言語モデル(MLLM)は、最先端の性能と複数のデータモダリティを統合する能力により、ますます重要になっている。
本稿では,パーソナライズされたマルチモーダルな大規模言語モデルに関する包括的調査を行い,そのアーキテクチャ,トレーニング方法,アプリケーションに焦点をあてる。
論文 参考訳(メタデータ) (2024-12-03T03:59:03Z) - Instruct Large Language Models to Generate Scientific Literature Survey Step by Step [21.149406605689297]
大規模言語モデル(LLM)を体系的に活用するプロンプトを設計する。
この設計はハイレベルの観点からの見出しの生成を可能にすると我々は主張する。
Qwen-long による実践は NLPCC 2024 で3位となった。
論文 参考訳(メタデータ) (2024-08-15T02:07:11Z) - Systematic Task Exploration with LLMs: A Study in Citation Text Generation [63.50597360948099]
大規模言語モデル(LLM)は、複雑な創造的自然言語生成(NLG)タスクの定義と実行において、前例のない柔軟性をもたらす。
本稿では,系統的な入力操作,参照データ,出力測定からなる3成分研究フレームワークを提案する。
我々はこのフレームワークを用いて引用テキスト生成を探索する。これは一般的なNLPタスクであり、タスク定義と評価基準に関するコンセンサスを欠いている。
論文 参考訳(メタデータ) (2024-07-04T16:41:08Z) - Peer Review as A Multi-Turn and Long-Context Dialogue with Role-Based Interactions [62.0123588983514]
大規模言語モデル(LLM)は様々な分野にまたがる幅広い応用を実証してきた。
我々は、ピアレビュープロセスを多ターン長文対話として再構築し、著者、レビュアー、意思決定者に対して異なる役割を担っている。
複数の情報源から収集された92,017件のレビューを含む26,841件の論文を含む包括的データセットを構築した。
論文 参考訳(メタデータ) (2024-06-09T08:24:17Z) - Enhancing Presentation Slide Generation by LLMs with a Multi-Staged End-to-End Approach [21.8104104944488]
ドキュメントからリッチなプレゼンテーションを生成するための既存のアプローチは、しばしば半自動的であるか、良い物語の重要性を無視してスライドに平らな要約を配置するだけである。
LLMとVLMを組み合わせた多段階のエンドツーエンドモデルを提案する。
我々は,LLMを最先端のプロンプトで直接適用するよりも,自動計測と人的評価の点で,提案した多段階ソリューションの方が優れていることを実験的に示した。
論文 参考訳(メタデータ) (2024-06-01T07:49:31Z) - Bridging Research and Readers: A Multi-Modal Automated Academic Papers
Interpretation System [47.13932723910289]
本稿では,3段階のプロセス段階を有するオープンソースマルチモーダル自動学術論文解釈システム(MMAPIS)を紹介する。
ドキュメントからプレーンテキストや表や図を別々に抽出するために、ハイブリッドなモダリティ前処理とアライメントモジュールを使用している。
すると、この情報は彼らが属するセクション名に基づいて調整され、同じセクション名を持つデータが同じセクションの下に分類される。
抽出されたセクション名を用いて、記事を短いテキストセグメントに分割し、LSMを通してセクション内とセクション間の特定の要約を容易にする。
論文 参考訳(メタデータ) (2024-01-17T11:50:53Z) - Tell Me How to Survey: Literature Review Made Simple with Automatic
Reading Path Generation [16.07200776251764]
論文を大量の文献から読めば、簡単な調査をしたり、特定の研究トピックに関する最新の進歩に遅れないようにする方法が課題になっている。
Google Scholarのような既存の学術検索エンジンは、各論文とクエリ間の関連性を個別に計算することで、関連論文を返す。
本稿では,あるクエリに対して読み込む論文のパスを自動生成することを目的とした読解パス生成(RPG)を紹介する。
論文 参考訳(メタデータ) (2021-10-12T20:58:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。