論文の概要: KEIR @ ECIR 2025: The Second Workshop on Knowledge-Enhanced Information Retrieval
- arxiv url: http://arxiv.org/abs/2501.11499v1
- Date: Mon, 20 Jan 2025 14:08:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:19:23.075502
- Title: KEIR @ ECIR 2025: The Second Workshop on Knowledge-Enhanced Information Retrieval
- Title(参考訳): KEIR @ ECIR 2025: The Second Workshop on Knowledge-Enhanced Information Retrieval
- Authors: Zihan Wang, Jinyuan Fang, Giacomo Frisoni, Zhuyun Dai, Zaiqiao Meng, Gianluca Moro, Emine Yilmaz,
- Abstract要約: 第2回知識強化情報検索ワークショップ(KEIR @ ECIR 2025)を提案する。
本ワークショップの目的は,学術界と産業界の研究者を集結させ,知識強化情報検索の様々な側面について議論することである。
- 参考スコア(独自算出の注目度): 43.67486583283194
- License:
- Abstract: Pretrained language models (PLMs) like BERT and GPT-4 have become the foundation for modern information retrieval (IR) systems. However, existing PLM-based IR models primarily rely on the knowledge learned during training for prediction, limiting their ability to access and incorporate external, up-to-date, or domain-specific information. Therefore, current information retrieval systems struggle with semantic nuances, context relevance, and domain-specific issues. To address these challenges, we propose the second Knowledge-Enhanced Information Retrieval workshop (KEIR @ ECIR 2025) as a platform to discuss innovative approaches that integrate external knowledge, aiming to enhance the effectiveness of information retrieval in a rapidly evolving technological landscape. The goal of this workshop is to bring together researchers from academia and industry to discuss various aspects of knowledge-enhanced information retrieval.
- Abstract(参考訳): BERT や GPT-4 のような事前学習言語モデル (PLM) は、現代の情報検索 (IR) システムの基盤となっている。
しかしながら、既存のPLMベースのIRモデルは、主に予測のためのトレーニング中に学んだ知識に依存しており、外部、最新の、ドメイン固有の情報にアクセスし、組み込む能力を制限する。
したがって、現在の情報検索システムは意味的ニュアンス、文脈関連性、ドメイン固有の問題に悩まされている。
これらの課題に対処するため,第2回知識強化情報検索ワークショップ (KEIR @ ECIR 2025) を,急速に発展する技術分野における情報検索の有効性を高めることを目的とした,外部知識を統合する革新的なアプローチを議論するプラットフォームとして提案する。
本ワークショップの目的は,学術界と産業界の研究者を集結させ,知識強化情報検索の様々な側面について議論することである。
関連論文リスト
- Deploying Large Language Models With Retrieval Augmented Generation [0.21485350418225244]
Retrieval Augmented Generationは、大規模言語モデルのトレーニングセット外のデータソースからの知識を統合するための重要なアプローチとして登場した。
本稿では,LLMとRAGを統合して情報検索を行うパイロットプロジェクトの開発とフィールドテストから得られた知見について述べる。
論文 参考訳(メタデータ) (2024-11-07T22:11:51Z) - Agentic Information Retrieval [21.741669515186146]
本稿では,大規模言語モデル(LLM)の能力によって形成される新しいIRパラダイムであるエージェント情報検索(Agentic IR)を紹介する。
本稿ではエージェントIRの3種類の最先端応用とその課題について論じる。
論文 参考訳(メタデータ) (2024-10-13T03:45:24Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - Machine Learning in Proton Exchange Membrane Water Electrolysis -- Part I: A Knowledge-Integrated Framework [36.74423086415903]
本稿では,プロトン交換膜水電解法(PEMWE)の開発を進展させるために,知識統合機械学習という新しいフレームワークを採用することを提案する。
まず、データ取得条件、データ駆動モデル機構、ドメインの専門知識から生じる不確実性を特定し、異なる視点から情報を運ぶ際の相補的な特徴を明らかにする。
PEMWEの文脈では「知識統合機械学習のラダー」と呼ばれ、細胞劣化解析の文脈における3つのケーススタディに適用された階層的な3段階のフレームワークを実証する。
論文 参考訳(メタデータ) (2024-01-24T04:41:03Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Information Retrieval Meets Large Language Models: A Strategic Report
from Chinese IR Community [180.28262433004113]
大規模言語モデル(LLM)は、テキスト理解、生成、知識推論において例外的な能力を示した。
LLMと人間は、情報検索のためにより強力な新しい技術パラダイムを形成します。
LLMがIR研究に与える影響を徹底的に議論するため、中国のIRコミュニティは2023年4月に戦略的ワークショップを開催した。
論文 参考訳(メタデータ) (2023-07-19T05:23:43Z) - Contextualized Knowledge-aware Attentive Neural Network: Enhancing
Answer Selection with Knowledge [77.77684299758494]
ナレッジグラフ(KG)による外部知識による回答選択モデル向上のアプローチを幅広く検討しています。
まず、KGの外部知識とテキスト情報との密接な相互作用を考慮し、QA文表現を学習するコンテキスト知識相互作用学習フレームワークであるナレッジアウェアニューラルネットワーク(KNN)を紹介します。
KG情報の多様性と複雑性に対処するために, カスタマイズされたグラフ畳み込みネットワーク (GCN) を介して構造情報を用いた知識表現学習を改善し, コンテキストベースおよび知識ベースの文表現を総合的に学習する コンテキスト型知識認識型アテンシブニューラルネットワーク (CKANN) を提案する。
論文 参考訳(メタデータ) (2021-04-12T05:52:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。