論文の概要: Hyper-RAG: Combating LLM Hallucinations using Hypergraph-Driven Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2504.08758v1
- Date: Sun, 30 Mar 2025 12:39:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-27 11:46:18.181847
- Title: Hyper-RAG: Combating LLM Hallucinations using Hypergraph-Driven Retrieval-Augmented Generation
- Title(参考訳): Hyper-RAG: Hypergraph-Driven Retrieval-Augmented Generation を用いたLLM幻覚
- Authors: Yifan Feng, Hao Hu, Xingliang Hou, Shiquan Liu, Shihui Ying, Shaoyi Du, Han Hu, Yue Gao,
- Abstract要約: 大規模言語モデル(LLM)は、コンテンツ生成と意思決定のプロセスを強化することで、教育、金融、医療など様々な分野を変革してきた。
しかし、それらの医療分野への統合は幻覚のため慎重であり、生成したコンテンツが事実の正確性から逸脱し、有害な結果をもたらす可能性がある。
本稿では,ハイパーグラフ駆動型Retrieval-Augmented Generation法であるHyper-RAGを紹介する。
- 参考スコア(独自算出の注目度): 29.89840262866779
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have transformed various sectors, including education, finance, and medicine, by enhancing content generation and decision-making processes. However, their integration into the medical field is cautious due to hallucinations, instances where generated content deviates from factual accuracy, potentially leading to adverse outcomes. To address this, we introduce Hyper-RAG, a hypergraph-driven Retrieval-Augmented Generation method that comprehensively captures both pairwise and beyond-pairwise correlations in domain-specific knowledge, thereby mitigating hallucinations. Experiments on the NeurologyCrop dataset with six prominent LLMs demonstrated that Hyper-RAG improves accuracy by an average of 12.3% over direct LLM use and outperforms Graph RAG and Light RAG by 6.3% and 6.0%, respectively. Additionally, Hyper-RAG maintained stable performance with increasing query complexity, unlike existing methods which declined. Further validation across nine diverse datasets showed a 35.5% performance improvement over Light RAG using a selection-based assessment. The lightweight variant, Hyper-RAG-Lite, achieved twice the retrieval speed and a 3.3% performance boost compared with Light RAG. These results confirm Hyper-RAG's effectiveness in enhancing LLM reliability and reducing hallucinations, making it a robust solution for high-stakes applications like medical diagnostics.
- Abstract(参考訳): 大規模言語モデル(LLM)は、コンテンツ生成と意思決定のプロセスを強化することで、教育、金融、医療など様々な分野を変革してきた。
しかし、それらの医療分野への統合は幻覚のため慎重であり、生成したコンテンツが事実の正確性から逸脱し、有害な結果をもたらす可能性がある。
これを解決するために,ハイパーグラフ駆動型Retrieval-Augmented Generation法であるHyper-RAGを導入する。
6つの著名なLLMを用いたNeurologyCropデータセットの実験では、Hyper-RAGは直接LLMの使用よりも平均12.3%精度が向上し、グラフRAGとライトRAGのそれぞれ6.3%と6.0%性能が向上した。
さらに、Hyper-RAGはクエリの複雑さを増すとともに安定したパフォーマンスを維持した。
9つの多様なデータセットに対するさらなる検証では、選択ベースの評価を使用して、Light RAGよりも35.5%パフォーマンスが改善された。
軽量版のHyper-RAG-LiteはLight RAGに比べて検索速度が2倍、性能が3.3%向上した。
これらの結果は,LPMの信頼性向上と幻覚の低減にHyper-RAGが有効であることを確認する。
関連論文リスト
- Recognition of Dysarthria in Amyotrophic Lateral Sclerosis patients using Hypernetworks [7.182245711235296]
変形の認識にハイパーネットを取り入れた最初の研究について述べる。
具体的には、オーディオファイルを使用し、それをlog-Mel Spectrogram、delta、delta-deltaに変換し、トレーニング済みの修正AlexNetモデルに渡します。
その結果,提案手法の精度は82.66%に向上した。
論文 参考訳(メタデータ) (2025-02-27T15:57:37Z) - RoseRAG: Robust Retrieval-augmented Generation with Small-scale LLMs via Margin-aware Preference Optimization [53.63439735067081]
大規模言語モデル(LLM)は目覚ましい性能を達成したが、高い計算コストとレイテンシに直面している。
Retrieval-augmented Generation (RAG) は、外部知識を統合するのに役立つが、不完全な検索は、SLMを誤解させるノイズを引き起こす可能性がある。
我々は、Margin-aware Preference Optimizationを通じて、SLMのための堅牢なRAGフレームワークであるRoseRAGを提案する。
論文 参考訳(メタデータ) (2025-02-16T04:56:53Z) - MMed-RAG: Versatile Multimodal RAG System for Medical Vision Language Models [49.765466293296186]
近年,Med-LVLM (Med-LVLMs) の進歩により,対話型診断ツールの新たな可能性が高まっている。
Med-LVLMは、しばしば事実の幻覚に悩まされ、誤った診断につながることがある。
我々は,Med-LVLMの現実性を高めるために,多目的マルチモーダルRAGシステムMMed-RAGを提案する。
論文 参考訳(メタデータ) (2024-10-16T23:03:27Z) - AlzhiNet: Traversing from 2DCNN to 3DCNN, Towards Early Detection and Diagnosis of Alzheimer's Disease [1.6908255257928966]
2次元畳み込みニューラルネットワーク(2D-CNN)と3次元畳み込みニューラルネットワーク(3D-CNN)を統合した新しいハイブリッドディープラーニングフレームワークを提案する。
我々のフレームワークはKaggleとMIRIADのデータセットから磁気共鳴イメージング(MRI)で検証され、それぞれ98.9%と99.99%、AUCは100%である。
論文 参考訳(メタデータ) (2024-10-03T17:37:18Z) - A Comprehensive Evaluation of Large Language Models on Mental Illnesses [0.8458496687170665]
GPT-4とLlama 3はバイナリ障害検出において優れた性能を示し、特定のデータセットで最大85%の精度に達した。
素早いエンジニアリングは モデル性能を高める上で 重要な役割を担った
有望な結果にもかかわらず、我々の分析では、データセット間のパフォーマンスのばらつきや、注意深いプロンプトエンジニアリングの必要性など、いくつかの課題を特定した。
論文 参考訳(メタデータ) (2024-09-24T02:58:52Z) - Benchmarking Retrieval-Augmented Generation for Medicine [30.390132015614128]
大規模言語モデル(LLM)は、幅広い医療質問応答(QA)タスクにおいて最先端のパフォーマンスを達成した。
Retrieval-augmented Generation(RAG)は有望なソリューションであり、広く採用されている。
我々は、5つの医療QAデータセットから7,663の質問を含む第一種ベンチマークであるMIRAGE(Medicical Information Retrieval-Augmented Generation Evaluation)を提案する。
論文 参考訳(メタデータ) (2024-02-20T17:44:06Z) - The effect of data augmentation and 3D-CNN depth on Alzheimer's Disease
detection [51.697248252191265]
この研究は、データハンドリング、実験設計、モデル評価に関するベストプラクティスを要約し、厳密に観察する。
我々は、アルツハイマー病(AD)の検出に焦点を当て、医療における課題のパラダイム的な例として機能する。
このフレームワークでは,3つの異なるデータ拡張戦略と5つの異なる3D CNNアーキテクチャを考慮し,予測15モデルを訓練する。
論文 参考訳(メタデータ) (2023-09-13T10:40:41Z) - A Stitch in Time Saves Nine: Detecting and Mitigating Hallucinations of
LLMs by Validating Low-Confidence Generation [76.34411067299331]
大規模な言語モデルは、しばしば信頼性を著しく損なう「ハロシン化」する傾向がある。
生成過程における幻覚を積極的に検出・緩和する手法を提案する。
提案手法は, GPT-3.5モデルの幻覚を平均47.5%から14.5%に低減する。
論文 参考訳(メタデータ) (2023-07-08T14:25:57Z) - Generative models improve fairness of medical classifiers under
distribution shifts [49.10233060774818]
データから現実的な拡張を自動的に学習することは、生成モデルを用いてラベル効率の良い方法で可能であることを示す。
これらの学習の強化は、モデルをより堅牢で統計的に公平に配布できることを示した。
論文 参考訳(メタデータ) (2023-04-18T18:15:38Z) - Federated Learning Enables Big Data for Rare Cancer Boundary Detection [98.5549882883963]
6大陸にわたる71の医療機関のデータを含む,これまでで最大のフェデレーテッドML研究の結果を報告する。
グリオ芽腫の稀な疾患に対する腫瘍境界自動検出装置を作製した。
当科では, 外科的に標的とした腫瘍の悪性度を高めるために, 33%の改善率を示し, 腫瘍全体に対する23%の改善率を示した。
論文 参考訳(メタデータ) (2022-04-22T17:27:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。