論文の概要: Hierarchical Memory Organization for Wikipedia Generation
- arxiv url: http://arxiv.org/abs/2506.23393v1
- Date: Sun, 29 Jun 2025 20:22:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.856383
- Title: Hierarchical Memory Organization for Wikipedia Generation
- Title(参考訳): ウィキペディア生成のための階層記憶機構
- Authors: Eugene J. Yu, Dawei Zhu, Yifan Song, Xiangyu Wong, Jiebin Zhang, Wenxuan Shi, Xiaoguang Li, Qun Liu, Sujian Li,
- Abstract要約: 本稿では,ウィキペディア記事を自動生成するメモリ・オーガナイゼーション・ベース・ジェネレーション(MOG)フレームワークを紹介する。
MOGは、Webドキュメントからきめ細かいメモリ単位を抽出し、それらをウィキペディアスタイルの階層構造に整理し、この構造を用いて生成プロセスを導く。
新たに作成したWikiStartデータセットの評価から,MOGは情報的かつ信頼性の高い記事を生成する上で,ベースライン手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 41.60777339440196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating Wikipedia articles autonomously is a challenging task requiring the integration of accurate, comprehensive, and well-structured information from diverse sources. This paper introduces the Memory Organization-based Generation (MOG) framework, a novel approach to address these challenges by leveraging a hierarchical memory architecture. MOG extracts fine-grained memory units from web documents, recursively organizes them into a Wikipedia-style hierarchical structure, and uses this structure to guide the generation process. This ensures alignment between memory and the article outline, improving both informativeness and verifiability while minimizing hallucinations. Additionally, a citation module is implemented to enhance traceability by linking every generated sentence to specific memory units. Evaluations on our newly created WikiStart dataset demonstrate that MOG outperforms baseline methods in producing informative and reliable articles, making it particularly robust in real-world scenarios.
- Abstract(参考訳): ウィキペディアの記事を自動生成するには、様々な情報源から正確で包括的でよく構造化された情報を統合する必要がある。
本稿では,階層型メモリアーキテクチャを活用することで,これらの課題に対処する新しい手法であるメモリオーガナイゼーション・ベース・ジェネレーション(MOG)フレームワークを紹介する。
MOGは、Webドキュメントからきめ細かいメモリ単位を抽出し、それらをウィキペディアスタイルの階層構造に再帰的に整理し、この構造を用いて生成プロセスを導く。
これにより、記憶と記事の概要の整合性を確保し、幻覚を最小化しながら、情報性と検証性の両方を改善します。
さらに、生成されたすべての文を特定のメモリユニットにリンクすることでトレーサビリティを高めるために、引用モジュールが実装されている。
新たに作成したWikiStartデータセットの評価によると,MOGは情報的かつ信頼性の高い記事を生成する上で,ベースライン手法よりも優れており,現実のシナリオでは特に堅牢である。
関連論文リスト
- DISRetrieval: Harnessing Discourse Structure for Long Document Retrieval [51.89673002051528]
DISRetrievalは、言語談話構造を利用して長い文書理解を強化する新しい階層的検索フレームワークである。
本研究は,談話構造が文書の長さや問合せの種類によって検索効率を著しく向上することを確認する。
論文 参考訳(メタデータ) (2025-05-26T14:45:12Z) - Rethinking Memory in AI: Taxonomy, Operations, Topics, and Future Directions [55.19217798774033]
メモリは、大規模言語モデル(LLM)ベースのエージェントを支える、AIシステムの基本コンポーネントである。
本稿ではまず,メモリ表現をパラメトリックおよびコンテキスト形式に分類する。
次に、コンソリデーション、更新、インデックス付け、フォッティング、検索、圧縮の6つの基本的なメモリ操作を紹介します。
論文 参考訳(メタデータ) (2025-05-01T17:31:33Z) - A-MEM: Agentic Memory for LLM Agents [42.50876509391843]
大規模言語モデル(LLM)エージェントは、歴史的経験を活用するためにメモリシステムを必要とする。
現在のメモリシステムは基本的なストレージと検索を可能にするが、洗練されたメモリ構造は欠如している。
本稿では, LLMエージェントに対して, エージェント方式で動的に記憶を整理できる新しいエージェントメモリシステムを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:36:14Z) - RET-LLM: Towards a General Read-Write Memory for Large Language Models [53.288356721954514]
RET-LLMは、大規模な言語モデルに一般的な読み書きメモリユニットを装備する新しいフレームワークである。
デビッドソンのセマンティクス理論に触発され、三重項の形で知識を抽出し保存する。
本フレームワークは,時間に基づく質問応答タスクの処理において,堅牢な性能を示す。
論文 参考訳(メタデータ) (2023-05-23T17:53:38Z) - Autoregressive Search Engines: Generating Substrings as Document
Identifiers [53.0729058170278]
自動回帰言語モデルは、回答を生成するデファクト標準として現れています。
これまでの研究は、探索空間を階層構造に分割する方法を探究してきた。
本研究では,検索空間の任意の構造を強制しない代替として,経路内のすべてのngramを識別子として使用することを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:45:01Z) - Pin the Memory: Learning to Generalize Semantic Segmentation [68.367763672095]
本稿ではメタラーニングフレームワークに基づくセマンティックセグメンテーションのための新しいメモリ誘導ドメイン一般化手法を提案する。
本手法は,セマンティッククラスの概念的知識を,ドメインを超えて一定であるカテゴリ記憶に抽象化する。
論文 参考訳(メタデータ) (2022-04-07T17:34:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。