論文の概要: KEIR @ ECIR 2025: The Second Workshop on Knowledge-Enhanced Information Retrieval
- arxiv url: http://arxiv.org/abs/2501.11499v1
- Date: Mon, 20 Jan 2025 14:08:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:19:23.075502
- Title: KEIR @ ECIR 2025: The Second Workshop on Knowledge-Enhanced Information Retrieval
- Title(参考訳): KEIR @ ECIR 2025: The Second Workshop on Knowledge-Enhanced Information Retrieval
- Authors: Zihan Wang, Jinyuan Fang, Giacomo Frisoni, Zhuyun Dai, Zaiqiao Meng, Gianluca Moro, Emine Yilmaz,
- Abstract要約: 第2回知識強化情報検索ワークショップ(KEIR @ ECIR 2025)を提案する。
本ワークショップの目的は,学術界と産業界の研究者を集結させ,知識強化情報検索の様々な側面について議論することである。
- 参考スコア(独自算出の注目度): 43.67486583283194
- License:
- Abstract: Pretrained language models (PLMs) like BERT and GPT-4 have become the foundation for modern information retrieval (IR) systems. However, existing PLM-based IR models primarily rely on the knowledge learned during training for prediction, limiting their ability to access and incorporate external, up-to-date, or domain-specific information. Therefore, current information retrieval systems struggle with semantic nuances, context relevance, and domain-specific issues. To address these challenges, we propose the second Knowledge-Enhanced Information Retrieval workshop (KEIR @ ECIR 2025) as a platform to discuss innovative approaches that integrate external knowledge, aiming to enhance the effectiveness of information retrieval in a rapidly evolving technological landscape. The goal of this workshop is to bring together researchers from academia and industry to discuss various aspects of knowledge-enhanced information retrieval.
- Abstract(参考訳): BERT や GPT-4 のような事前学習言語モデル (PLM) は、現代の情報検索 (IR) システムの基盤となっている。
しかしながら、既存のPLMベースのIRモデルは、主に予測のためのトレーニング中に学んだ知識に依存しており、外部、最新の、ドメイン固有の情報にアクセスし、組み込む能力を制限する。
したがって、現在の情報検索システムは意味的ニュアンス、文脈関連性、ドメイン固有の問題に悩まされている。
これらの課題に対処するため,第2回知識強化情報検索ワークショップ (KEIR @ ECIR 2025) を,急速に発展する技術分野における情報検索の有効性を高めることを目的とした,外部知識を統合する革新的なアプローチを議論するプラットフォームとして提案する。
本ワークショップの目的は,学術界と産業界の研究者を集結させ,知識強化情報検索の様々な側面について議論することである。
関連論文リスト
- A Comprehensive Survey on Integrating Large Language Models with Knowledge-Based Methods [4.686190098233778]
本稿では、データコンテキスト化の改善、モデルの精度の向上、知識リソースの利用改善など、生成AIを知識ベースに統合するメリットを強調した。
この調査結果は、現在の研究状況の詳細な概要を提供し、重要なギャップを特定し、実行可能なレコメンデーションを提供する。
論文 参考訳(メタデータ) (2025-01-19T23:25:21Z) - Future of Information Retrieval Research in the Age of Generative AI [61.56371468069577]
情報検索(IR)の急速に発展する分野では、大規模言語モデル(LLM)のような生成AI技術の統合が、情報の検索やインタラクションの方法を変えつつある。
このパラダイムシフトを認識したビジョンワークショップが2024年7月に開催され、生成AI時代のIRの将来について議論した。
本報告は、潜在的に重要な研究トピックとしての議論の要約を含み、学術、産業実践家、機関、評価キャンペーン、資金提供機関の推薦リストを含む。
論文 参考訳(メタデータ) (2024-12-03T00:01:48Z) - Deploying Large Language Models With Retrieval Augmented Generation [0.21485350418225244]
Retrieval Augmented Generationは、大規模言語モデルのトレーニングセット外のデータソースからの知識を統合するための重要なアプローチとして登場した。
本稿では,LLMとRAGを統合して情報検索を行うパイロットプロジェクトの開発とフィールドテストから得られた知見について述べる。
論文 参考訳(メタデータ) (2024-11-07T22:11:51Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - InfuserKI: Enhancing Large Language Models with Knowledge Graphs via Infuser-Guided Knowledge Integration [58.61492157691623]
知識を統合する手法が開発され、外部モジュールを通してLLMをドメイン固有の知識グラフに拡張した。
本研究は,未知の知識をLLMに効率的に統合することで,未知の知識を不要に重複させるという,新たな問題に焦点をあてる。
新しい知識を導入するリスクは、既存の知識を忘れることである。
論文 参考訳(メタデータ) (2024-02-18T03:36:26Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Information Retrieval Meets Large Language Models: A Strategic Report
from Chinese IR Community [180.28262433004113]
大規模言語モデル(LLM)は、テキスト理解、生成、知識推論において例外的な能力を示した。
LLMと人間は、情報検索のためにより強力な新しい技術パラダイムを形成します。
LLMがIR研究に与える影響を徹底的に議論するため、中国のIRコミュニティは2023年4月に戦略的ワークショップを開催した。
論文 参考訳(メタデータ) (2023-07-19T05:23:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。