論文の概要: Expert Mind: A Retrieval-Augmented Architecture for Expert Knowledge Preservation in the Energy Sector
- arxiv url: http://arxiv.org/abs/2603.14541v1
- Date: Sun, 15 Mar 2026 18:32:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.876593
- Title: Expert Mind: A Retrieval-Augmented Architecture for Expert Knowledge Preservation in the Energy Sector
- Title(参考訳): エキスパートマインド : エネルギー部門におけるエキスパート知識保存のための検索型アーキテクチャ
- Authors: Diego Ezequiel Cervera,
- Abstract要約: Expert Mindは、Retrieval-Augmented Generation (RAG)、大規模言語モデル(LLM)、マルチモーダルキャプチャ技術を活用する実験システムである。
提案システムは,構造化インタビュー,シンク・アラウドセッション,テキスト・コーパスの取り込みを通じて,知識の活用問題に対処する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The departure of subject-matter experts from industrial organizations results in the irreversible loss of tacit knowledge that is rarely captured through conventional documentation practices. This paper proposes Expert Mind, an experimental system that leverages Retrieval-Augmented Generation (RAG), large language models (LLMs), and multimodal capture techniques to preserve, structure, and make queryable the deep expertise of organizational knowledge holders. Drawing on the specific context of the energy sector, where decades of operational experience risk being lost to an aging workforce, we describe the system architecture, processing pipeline, ethical framework, and evaluation methodology. The proposed system addresses the knowledge elicitation problem through structured interviews, think-aloud sessions, and text corpus ingestion, which are subsequently embedded into a vector store and queried through a conversational interface. Preliminary design considerations suggest Expert Mind can significantly reduce knowledge transfer latency and improve onboarding efficiency. Ethical dimensions including informed consent, intellectual property, and the right to erasure are addressed as first-class design constraints.
- Abstract(参考訳): 専門分野の専門家が産業組織から離脱すると、従来の文書化の慣行によって獲得されることが滅多にない暗黙の知識が、不可逆的に失われてしまう。
本稿では,RaG(Retrieval-Augmented Generation),大規模言語モデル(LLM),マルチモーダルキャプチャ技術を活用して,組織知識保持者の深い知識を保存,構造化,クエリ可能なものにする実験システムであるExpert Mindを提案する。
数十年にわたる運用経験が老朽化した労働力に失われるエネルギーセクターの具体的な状況に基づいて、システムアーキテクチャ、処理パイプライン、倫理的枠組み、評価方法論を説明します。
提案システムは,構造化インタビュー,シンク・アラウドセッション,テキスト・コーパス・インジェクションを通じて知識活用の問題に対処する。
予備設計は、Expert Mindが知識伝達の遅延を大幅に低減し、搭載効率を向上させることを示唆している。
情報的同意、知的財産権、消去権を含む倫理的次元は、第一級設計制約として扱われる。
関連論文リスト
- Benchmarking Knowledge-Extraction Attack and Defense on Retrieval-Augmented Generation [50.87199039334856]
Retrieval-Augmented Generation (RAG) は知識集約型アプリケーションの基礎となっている。
近年の研究では、悪意あるクエリによって知識抽出攻撃が機密知識ベースコンテンツを回復できることが示されている。
本稿では,RAGシステムに対する知識抽出攻撃のための最初の体系的ベンチマークを紹介する。
論文 参考訳(メタデータ) (2026-02-10T01:27:46Z) - Developing an AI Assistant for Knowledge Management and Workforce Training in State DOTs [0.6445594641258019]
本稿では,知識管理と意思決定を支援するマルチエージェントアーキテクチャを備えたRAG(Retrieval-Augmented Generation)フレームワークを提案する。
従来のシングルパスRAGシステムとは異なり、提案フレームワークは検索、回答生成、評価、クエリ改善のために複数の特殊エージェントを使用する。
論文 参考訳(メタデータ) (2026-02-07T20:00:07Z) - Two Experts Are All You Need for Steering Thinking: Reinforcing Cognitive Effort in MoE Reasoning Models Without Additional Training [86.70255651945602]
我々はReinforcecing Cognitive Experts(RICE)と呼ばれる新しい推論時ステアリング手法を導入する。
RICEは、追加のトレーニングや複雑化なしに推論のパフォーマンスを改善することを目的としている。
先行する MoE ベースの LRM を用いた経験的評価は、推論精度、認知効率、ドメイン間の一般化において顕著で一貫した改善を示す。
論文 参考訳(メタデータ) (2025-05-20T17:59:16Z) - PIKE-RAG: sPecIalized KnowledgE and Rationale Augmented Generation [16.081923602156337]
sPecIalized KnowledgEとRationale Augmentation Generation(PIKE-RAG)を紹介する。
専門知識を抽出し,理解し,適用することに注力するとともに,LCMを正確な応答に向けて漸進的に操るコヒーレントな合理性を構築した。
この戦略的なアプローチは、産業アプリケーションの進化する要求を満たすために調整されたRAGシステムの段階的開発と強化のためのロードマップを提供する。
論文 参考訳(メタデータ) (2025-01-20T15:39:39Z) - LEARN: Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
Llm-driven knowlEdge Adaptive RecommeNdation (LEARN)フレームワークは、オープンワールドの知識と協調的な知識をシナジする。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - Enhancing Question Answering for Enterprise Knowledge Bases using Large Language Models [46.51659135636255]
EKRGは大規模言語モデル(LLM)に基づく新しい検索生成フレームワークである
知識検索者の学習に十分な文書検索ペアを生成するために,LLMを用いた命令チューニング手法を提案する。
我々は、学習過程の効率化を図るために、関連性に敏感な教師学生学習戦略を開発する。
論文 参考訳(メタデータ) (2024-04-10T10:38:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。