論文の概要: Generation-Augmented Generation: A Plug-and-Play Framework for Private Knowledge Injection in Large Language Models
- arxiv url: http://arxiv.org/abs/2601.08209v1
- Date: Tue, 13 Jan 2026 04:23:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.057446
- Title: Generation-Augmented Generation: A Plug-and-Play Framework for Private Knowledge Injection in Large Language Models
- Title(参考訳): 次世代:大規模言語モデルにおけるプライベート知識注入のためのプラグイン・アンド・プレイフレームワーク
- Authors: Rongji Li, Jian Xu, Xueqing Chen, Yisheng Yang, Jiayi Wang, Xingyu Chen, Chunyu Xie, Dawei Leng, Xu-Yao Zhang,
- Abstract要約: GAG(Generation-Augmented Generation)は、プライベートな専門知識を専門的なモダリティとして扱い、コンパクトな表現レベルインターフェースを通じてそれを注入する。
GAGは2つのベンチマークで強力なRAGベースラインよりも15.34%、14.86%の専門性能を向上した。
- 参考スコア(独自算出の注目度): 48.65910216527897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In domains such as biomedicine, materials, and finance, high-stakes deployment of large language models (LLMs) requires injecting private, domain-specific knowledge that is proprietary, fast-evolving, and under-represented in public pretraining. However, the two dominant paradigms for private knowledge injection each have pronounced drawbacks: fine-tuning is expensive to iterate, and continual updates risk catastrophic forgetting and general-capability regression; retrieval-augmented generation (RAG) keeps the base model intact but is brittle in specialized private corpora due to chunk-induced evidence fragmentation, retrieval drift, and long-context pressure that yields query-dependent prompt inflation. Inspired by how multimodal LLMs align heterogeneous modalities into a shared semantic space, we propose Generation-Augmented Generation (GAG), which treats private expertise as an additional expert modality and injects it via a compact, representation-level interface aligned to the frozen base model, avoiding prompt-time evidence serialization while enabling plug-and-play specialization and scalable multi-domain composition with reliable selective activation. Across two private scientific QA benchmarks (immunology adjuvant and catalytic materials) and mixed-domain evaluations, GAG improves specialist performance over strong RAG baselines by 15.34% and 14.86% on the two benchmarks, respectively, while maintaining performance on six open general benchmarks and enabling near-oracle selective activation for scalable multi-domain deployment.
- Abstract(参考訳): バイオメディシン、材料、ファイナンスのようなドメインでは、大規模言語モデル(LLM)の大量展開には、プロプライエタリで、急速に進化し、公共の事前訓練で表現されていない、プライベートなドメイン固有の知識を注入する必要がある。
微調整は繰り返し行うのに費用がかかり、継続的な更新は破滅的な忘れ込みと汎用能力の回帰をリスクにし、検索強化世代(RAG)はベースモデルをそのまま維持するが、チャンクによって引き起こされた証拠の断片化、検索のドリフト、およびクエリ依存の急激なインフレーションをもたらす長いコンテキストプレッシャーにより、特別なプライベートコーパスで不安定である。
マルチモーダルLLMが異質なモダリティを共有セマンティック空間に整合させる方法に着想を得て,プライベートな専門知識を付加的な専門家のモダリティとして扱い,凍結ベースモデルに整合したコンパクトな表現レベルインターフェースを通じて,高速なエビデンスシリアライゼーションを回避し,プラグイン・アンド・プレイの特殊化とスケーラブルなマルチドメイン構成を信頼性の高い選択的アクティベーションで実現した生成・拡張生成(GAG)を提案する。
2つのプライベートな科学QAベンチマーク(免疫アジュバントと触媒材料)と混合ドメイン評価(混合ドメイン評価)により、GAGは2つのベンチマークでそれぞれ15.34%と14.86%の強力なRAGベースラインよりも専門性能を向上し、6つのオープンな一般ベンチマークのパフォーマンスを維持し、スケーラブルなマルチドメインデプロイメントのためのニアオークル選択的アクティベーションを可能にした。
関連論文リスト
- Evontree: Ontology Rule-Guided Self-Evolution of Large Language Models [12.36467850170776]
Evontreeは、大規模言語モデル(LLM)内のドメイン知識を抽出、検証、拡張するために、少数の高品質なルールを利用する新しいフレームワークである。
Llama3-8B-InstructとMed42-v2による医学QAベンチマークの実験は、修正されていないモデルと教師付きベースラインの両方に対して一貫した性能を示した。
論文 参考訳(メタデータ) (2025-10-30T16:53:45Z) - Domain-Specific Data Generation Framework for RAG Adaptation [58.20906914537952]
Retrieval-Augmented Generation (RAG)は、大規模言語モデルの言語理解と推論能力と外部検索を組み合わせ、ドメイン基底応答を可能にする。
本稿では,様々なRAG適応手法に合わせて,ドメイン基底型質問応答コンテキスト(QAC)トリプルを生成するフレームワークであるRAGenを提案する。
論文 参考訳(メタデータ) (2025-10-13T09:59:49Z) - What Makes You Unique? Attribute Prompt Composition for Object Re-Identification [70.67907354506278]
Object Re-IDentificationは、重複しないカメラビューで個人を認識することを目的としている。
単一ドメインモデルはドメイン固有の機能に過度に適合する傾向がありますが、クロスドメインモデルは多種多様な正規化戦略に依存します。
本稿では,テキストのセマンティクスを利用して識別と一般化を協調的に強化する属性プロンプト合成フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-23T07:03:08Z) - Fine-Grained Privacy Extraction from Retrieval-Augmented Generation Systems via Knowledge Asymmetry Exploitation [15.985529058573912]
Retrieval-augmented Generation (RAG) システムは、外部知識ベースを統合することにより、大規模言語モデル(LLM)を強化する。
RAGシステムに対する既存のプライバシ攻撃は、データ漏洩を引き起こす可能性があるが、多くの場合、混合応答内で知識ベース由来の文を正確に分離することができない。
本稿では,RAGと標準LLMの知識非対称性を利用したブラックボックス攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-31T03:50:16Z) - MetaGen Blended RAG: Unlocking Zero-Shot Precision for Specialized Domain Question-Answering [0.0]
本稿では, セマンティック検索機能を強化した新しいエンタープライズ検索手法である「MetaGen Blended RAG」を紹介する。
重要な概念,トピック,頭字語を活用することで,メタデータに富んだセマンティックインデックスと,ハイブリッドクエリの強化を実現した。
バイオメディカルなPubMedQAデータセットでは、MetaGen Blended RAGが82%の検索精度と77%のRAG精度を実現し、以前のゼロショットRAGベンチマークを上回りました。
論文 参考訳(メタデータ) (2025-05-23T17:18:45Z) - UniversalRAG: Retrieval-Augmented Generation over Corpora of Diverse Modalities and Granularities [53.76854299076118]
UniversalRAGは異種情報源からの知識を多様さと粒度で検索・統合するための新しいRAGフレームワークである。
本稿では,最も適切なモダリティ固有コーパスを動的に識別し,その内部でターゲット検索を行うモダリティ対応ルーティング機構を提案する。
マルチモーダル性にまたがる8つのベンチマークでUniversalRAGを検証する。
論文 参考訳(メタデータ) (2025-04-29T13:18:58Z) - Generate, Discriminate, Evolve: Enhancing Context Faithfulness via Fine-Grained Sentence-Level Self-Evolution [61.80716438091887]
GenDiE (Generate, Discriminate, Evolve) は、微粒な文レベルの最適化によって文脈忠実性を高める新しい自己進化フレームワークである。
応答中の各文を独立した最適化単位として扱うことで、GenDiEは以前のアプローチの限界に効果的に対処する。
ASQA(ドメイン内のLFQA)とConFiQAデータセットの実験は、GenDiEが忠実さと正しさの両方で様々なベースラインを超えることを示した。
論文 参考訳(メタデータ) (2025-03-03T16:08:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。