論文の概要: Select, Read, and Write: A Multi-Agent Framework of Full-Text-based Related Work Generation
- arxiv url: http://arxiv.org/abs/2505.19647v1
- Date: Mon, 26 May 2025 08:02:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.265543
- Title: Select, Read, and Write: A Multi-Agent Framework of Full-Text-based Related Work Generation
- Title(参考訳): Select, Read, and Write: テキストベースの関連作業生成のためのマルチエージェントフレームワーク
- Authors: Xiaochuan Liu, Ruihua Song, Xiting Wang, Xu Chen,
- Abstract要約: 本稿では,フルテキストベースのRWGタスクに着目し,新しいマルチエージェントフレームワークを提案する。
本フレームワークは,論文のどのセクションを次に読むかを決定するセレクタ,選択したセクションをダイジェストして共有作業メモリを更新するリーダ,最終キュレートされたメモリに基づいてRWSを生成するライターの3つのエージェントから構成される。
- 参考スコア(独自算出の注目度): 30.269522560606138
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic related work generation (RWG) can save people's time and effort when writing a draft of related work section (RWS) for further revision. However, existing methods for RWG always suffer from shallow comprehension due to taking the limited portions of references papers as input and isolated explanation for each reference due to ineffective capturing the relationships among them. To address these issues, we focus on full-text-based RWG task and propose a novel multi-agent framework. Our framework consists of three agents: a selector that decides which section of the papers is going to read next, a reader that digests the selected section and updates a shared working memory, and a writer that generates RWS based on the final curated memory. To better capture the relationships among references, we also propose two graph-aware strategies for selector, enabling to optimize the reading order with constrains of the graph structure. Extensive experiments demonstrate that our framework consistently improves performance across three base models and various input configurations. The graph-aware selectors outperform alternative selectors, achieving state-of-the-art results. The code and data are available at https://github.com/1190200817/Full_Text_RWG.
- Abstract(参考訳): 自動関連作業生成(RWG)は、関連する作業部(RWS)のドラフトを書く際に、人々の時間と労力を節約し、さらなる修正を行う。
しかし、既存のRWGの手法は、参照論文の限られた部分をインプットとして、それらの関係を効果的に捉えないために、各参照に対して独立した説明を行うため、常に浅い理解に苦しむ。
これらの課題に対処するために、フルテキストベースのRWGタスクに着目し、新しいマルチエージェントフレームワークを提案する。
本フレームワークは,論文のどのセクションを次に読むかを決定するセレクタ,選択したセクションをダイジェストして共有作業メモリを更新するリーダ,最終キュレートされたメモリに基づいてRWSを生成するライターの3つのエージェントから構成される。
また、参照間の関係をよりよく把握するために、セレクタのための2つのグラフ認識戦略を提案し、グラフ構造の制約により読み順を最適化する。
大規模な実験により、我々のフレームワークは3つのベースモデルと様々な入力構成におけるパフォーマンスを一貫して改善することを示した。
グラフ対応セレクタは代替セレクタより優れ、最先端の結果が得られる。
コードとデータはhttps://github.com/1190200817/Full_Text_RWGで公開されている。
関連論文リスト
- LLM-Ref: Enhancing Reference Handling in Technical Writing with Large Language Models [4.1180254968265055]
LLM-Refは、研究者が複数のソース文書から記事を書くのを補助する記述支援ツールである。
チャンキングとインデックスを使用する従来のRAGシステムとは異なり、私たちのツールはテキスト段落から直接コンテンツを検索し、生成します。
我々の手法は、RAGシステムの正確で関連性があり、文脈的に適切な応答を生成する能力の全体像を提供する総合的な指標である、Ragasスコアの3.25タイムから6.26タイムの上昇を達成する。
論文 参考訳(メタデータ) (2024-11-01T01:11:58Z) - Graph of Records: Boosting Retrieval Augmented Generation for Long-context Summarization with Graphs [12.878608250420832]
長文大域要約のためのRAGを強化するために,レコードのテキストグラフ(textbfGoR)を提案する。
RAG のtextitretrieve-then-generate パラダイムに着想を得て,検索したテキストチャンクと対応する LLM 生成応答のエッジを確立することでグラフを構築する。
それら間の複雑な相関関係を明らかにするために、GoRは、テキストトグラフニューラルネットワークと、自己教師型モデルトレーニングのための、精巧に設計されたTextitBERTScoreベースの目的を特徴としている。
論文 参考訳(メタデータ) (2024-10-14T18:34:29Z) - GraphReader: Building Graph-based Agent to Enhance Long-Context Abilities of Large Language Models [58.08177466768262]
大規模言語モデル(LLM)では、複雑なロングコンテクストのタスクに対処するためには、ロングコンテクストの能力が不可欠である。
グラフをグラフに構造化し、エージェントを使ってグラフを自律的に探索することで、長いテキストを扱うように設計されたグラフベースのエージェントシステムであるGraphReaderを紹介する。
LV-Evalデータセットの実験結果によると、GraphReaderは4kコンテキストウィンドウを使用して、16kから256kまでのコンテキスト長で一貫してGPT-4-128kを上回っている。
論文 参考訳(メタデータ) (2024-06-20T17:57:51Z) - Accelerating Inference of Retrieval-Augmented Generation via Sparse Context Selection [28.15184715270483]
大きな言語モデル (LLM) は、検索によって強化され、堅牢な性能と広範な汎用性を示す。
本稿では,スパースRAGという新しいパラダイムを提案する。
Sparse RAGは、検索したドキュメントを並列にエンコードする。
論文 参考訳(メタデータ) (2024-05-25T11:10:04Z) - ReSel: N-ary Relation Extraction from Scientific Text and Tables by
Learning to Retrieve and Select [53.071352033539526]
学術論文からN-ary関係を抽出する問題について考察する。
提案手法であるReSelは,このタスクを2段階のプロシージャに分解する。
3つの科学的情報抽出データセットに対する実験により、ReSelは最先端のベースラインを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2022-10-26T02:28:02Z) - Generate rather than Retrieve: Large Language Models are Strong Context
Generators [74.87021992611672]
本稿では,文書検索を大規模言語モデル生成器に置き換えることで,知識集約型タスクを解く新しい視点を提案する。
我々は,提案手法をgenRead (genRead) と呼び,まず大きな言語モデルに対して,与えられた質問に基づいて文脈文書を生成し,次に生成された文書を読み出して最終回答を生成する。
論文 参考訳(メタデータ) (2022-09-21T01:30:59Z) - Autoregressive Search Engines: Generating Substrings as Document
Identifiers [53.0729058170278]
自動回帰言語モデルは、回答を生成するデファクト標準として現れています。
これまでの研究は、探索空間を階層構造に分割する方法を探究してきた。
本研究では,検索空間の任意の構造を強制しない代替として,経路内のすべてのngramを識別子として使用することを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:45:01Z) - Unsupervised Matching of Data and Text [6.2520079463149205]
テキストコンテンツと構造化データとを教師なし設定でマッチングするフレームワークを導入する。
提案手法は,コーパスの内容に対して微細なグラフを構築し,低次元空間で一致する対象を表現するために単語埋め込みを導出する。
実使用事例と公開データセットの実験により、我々のフレームワークは単語埋め込みや微調整言語モデルよりも優れた埋め込みを生成することが示された。
論文 参考訳(メタデータ) (2021-12-16T10:40:48Z) - Graph Convolution Machine for Context-aware Recommender System [59.50474932860843]
グラフ畳み込みの利点を文脈認識推薦システム(CARS)に拡張する。
我々は、エンコーダ、グラフ畳み込み層、デコーダの3つのコンポーネントからなるエンドツーエンドフレームワークである textitGraph Convolution Machine (GCM) を提案する。
我々はYelpとAmazonの3つの実世界のデータセットで実験を行い、GCMの有効性とCARSのためのグラフ畳み込みの利点を検証する。
論文 参考訳(メタデータ) (2020-01-30T15:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。