論文の概要: AquiLLM: a RAG Tool for Capturing Tacit Knowledge in Research Groups
- arxiv url: http://arxiv.org/abs/2508.05648v1
- Date: Fri, 25 Jul 2025 20:47:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-17 22:58:06.112139
- Title: AquiLLM: a RAG Tool for Capturing Tacit Knowledge in Research Groups
- Title(参考訳): AquiLLM:研究グループにおける暗黙の知識をキャプチャするためのRAGツール
- Authors: Chandler Campbell, Bernie Boscoe, Tuan Do,
- Abstract要約: 研究グループは、チームメンバに分散した知識の取得、保存、検索において、永続的な課題に直面します。
AquiLLMは研究グループのニーズを満たすために設計された軽量でモジュラーなRAGシステムである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Research groups face persistent challenges in capturing, storing, and retrieving knowledge that is distributed across team members. Although structured data intended for analysis and publication is often well managed, much of a group's collective knowledge remains informal, fragmented, or undocumented--often passed down orally through meetings, mentoring, and day-to-day collaboration. This includes private resources such as emails, meeting notes, training materials, and ad hoc documentation. Together, these reflect the group's tacit knowledge--the informal, experience-based expertise that underlies much of their work. Accessing this knowledge can be difficult, requiring significant time and insider understanding. Retrieval-augmented generation (RAG) systems offer promising solutions by enabling users to query and generate responses grounded in relevant source material. However, most current RAG-LLM systems are oriented toward public documents and overlook the privacy concerns of internal research materials. We introduce AquiLLM (pronounced ah-quill-em), a lightweight, modular RAG system designed to meet the needs of research groups. AquiLLM supports varied document types and configurable privacy settings, enabling more effective access to both formal and informal knowledge within scholarly groups.
- Abstract(参考訳): 研究グループは、チームメンバに分散した知識の取得、保存、検索において、永続的な課題に直面します。
分析と出版を意図した構造化されたデータはよく管理されるが、集団的知識の多くは非公式、断片化、あるいは文書化されていないままであり、しばしばミーティング、メンタリング、日々のコラボレーションを通じて口頭で伝えられる。
これにはメール、会議ノート、トレーニング資料、アドホックドキュメントなどのプライベートリソースが含まれる。
これらは共に、グループの暗黙の知識、すなわち彼らの仕事の基盤となる非公式な経験に基づく専門知識を反映している。
この知識にアクセスするのは難しく、かなりの時間と内部理解が必要です。
Retrieval-augmented Generation (RAG) システムは、ユーザが関連するソースに基盤を置く応答をクエリして生成できるようにすることによって、有望なソリューションを提供する。
しかしながら、現在のRAG-LLMシステムの多くは公開文書を指向しており、内部研究資料のプライバシー上の懸念を軽視している。
研究グループのニーズに応えるために設計された軽量モジュール型RAGシステムであるAquiLLM(Aquill-em)を紹介する。
AquiLLMは、さまざまなドキュメントタイプと設定可能なプライバシ設定をサポートし、学術グループ内のフォーマルな知識と非公式な知識の両方に、より効果的なアクセスを可能にする。
関連論文リスト
- Marcel: A Lightweight and Open-Source Conversational Agent for University Student Support [2.1763238176533037]
このシステムは,大学職員の作業量を削減しつつ,迅速かつパーソナライズされた回答を提供することを目的としている。
我々は,大学資源の回答を基盤として,ユーザに対して検証可能な,文脈に関連のある情報を提供するために,検索強化世代を採用している。
論文 参考訳(メタデータ) (2025-07-18T14:09:45Z) - SpiritRAG: A Q&A System for Religion and Spirituality in the United Nations Archive [4.575515160275914]
Retrieval-Augmented Generation(RAG)に基づく対話型Q&AシステムであるSpiritRAGを提案する。
SpiritRAGは、保健・教育分野におけるR/Sに関する7500件の国連(UN)決議文書を使って構築され、研究者や政策立案者が複雑な文脈に敏感なデータベース検索を行うことを可能にする。
100の質問を手作業で作成したドメインエキスパートによるパイロットテストと評価は、SpiritRAGの実用的価値と有用性を示している。
論文 参考訳(メタデータ) (2025-07-06T13:54:54Z) - Machine Assistant with Reliable Knowledge: Enhancing Student Learning via RAG-based Retrieval [0.0]
MARK(Machine Assistant with Reliable Knowledge)は、学生の学習を支援するために開発された質問応答システムである。
システムは検索強化世代(RAG)フレームワーク上に構築されており、このフレームワークは、実際の一貫性を確保するために、キュレートされた知識ベースを統合する。
論文 参考訳(メタデータ) (2025-06-28T22:17:27Z) - KnowShiftQA: How Robust are RAG Systems when Textbook Knowledge Shifts in K-12 Education? [41.49674849980441]
K-12 教育領域における質問応答ツールとして,RAG (Retrieval-Augmented Generation) システムの可能性が示唆された。
これらの教科書とLLM(Large Language Models)に固有のパラメトリック知識の相違は、RAGシステムの有効性を損なう可能性がある。
KnowShiftQAはこれらの相違をシミュレートし、仮説的知識の更新を意図的に回答とソース文書の両方に適用する。
論文 参考訳(メタデータ) (2024-12-12T06:38:40Z) - StructRAG: Boosting Knowledge Intensive Reasoning of LLMs via Inference-time Hybrid Information Structurization [94.31508613367296]
Retrieval-augmented Generation(RAG)は、大規模言語モデル(LLM)を効果的に強化する鍵となる手段である。
本稿では,手前のタスクに対して最適な構造型を識別し,元の文書をこの構造化形式に再構成し,その結果に基づいて回答を推測するStructRAGを提案する。
実験の結果、StructRAGは最先端のパフォーマンスを実現し、特に挑戦的なシナリオに優れていた。
論文 参考訳(メタデータ) (2024-10-11T13:52:44Z) - A Survey of Generative Information Retrieval [25.1249210843116]
Generative Retrieval (GR) は、情報検索における新たなパラダイムであり、従来のクエリ処理やドキュメントの再ランクを必要とせずに、生成モデルを利用してクエリを関連するドキュメント識別子(DocID)にマップする。
この調査はGRの総合的な概要を提供し、主要な開発、索引付けと検索戦略、課題を強調している。
論文 参考訳(メタデータ) (2024-06-03T10:59:33Z) - REAR: A Relevance-Aware Retrieval-Augmented Framework for Open-Domain Question Answering [115.72130322143275]
REAR(Relevance-Aware Retrieval-augmented approach for open-domain Question answering, QA)
我々は,特殊な設計のアセスメントモジュールを組み込むことで,LLMベースのRAGシステムのための新しいアーキテクチャを開発する。
オープンドメインの4つのQAタスクの実験では、REARは以前の競争力のあるRAGアプローチよりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-02-27T13:22:51Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。