論文の概要: Mind the Gap: Cross-Lingual Information Retrieval with Hierarchical
Knowledge Enhancement
- arxiv url: http://arxiv.org/abs/2112.13510v1
- Date: Mon, 27 Dec 2021 04:56:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-28 17:31:58.019164
- Title: Mind the Gap: Cross-Lingual Information Retrieval with Hierarchical
Knowledge Enhancement
- Title(参考訳): Mind the Gap:階層的知識強化による言語間情報検索
- Authors: Fuwei Zhang, Zhao Zhang, Xiang Ao, Dehong Gao, Fuzhen Zhuang, Yi Wei,
Qing He
- Abstract要約: Cross-Lingual Information Retrievalは、ユーザのクエリとは異なる言語で書かれたドキュメントをランク付けすることを目的としている。
マルチ言語知識グラフ(KG)をCLIRタスクに導入する。
本稿では,階層的知識向上(HIKE)を用いたCLIRというモデルを提案する。
- 参考スコア(独自算出の注目度): 28.99870384344861
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-Lingual Information Retrieval (CLIR) aims to rank the documents written
in a language different from the user's query. The intrinsic gap between
different languages is an essential challenge for CLIR. In this paper, we
introduce the multilingual knowledge graph (KG) to the CLIR task due to the
sufficient information of entities in multiple languages. It is regarded as a
"silver bullet" to simultaneously perform explicit alignment between queries
and documents and also broaden the representations of queries. And we propose a
model named CLIR with hierarchical knowledge enhancement (HIKE) for our task.
The proposed model encodes the textual information in queries, documents and
the KG with multilingual BERT, and incorporates the KG information in the
query-document matching process with a hierarchical information fusion
mechanism. Particularly, HIKE first integrates the entities and their
neighborhood in KG into query representations with a knowledge-level fusion,
then combines the knowledge from both source and target languages to further
mitigate the linguistic gap with a language-level fusion. Finally, experimental
results demonstrate that HIKE achieves substantial improvements over
state-of-the-art competitors.
- Abstract(参考訳): Cross-Lingual Information Retrieval (CLIR) は、ユーザのクエリとは異なる言語で書かれたドキュメントをランク付けすることを目的としている。
異なる言語間の固有のギャップは、CLIRにとって重要な課題である。
本稿では,複数の言語におけるエンティティの十分な情報により,多言語知識グラフ(KG)をCLIRタスクに導入する。
クエリとドキュメント間の明示的なアライメントを同時に実行し、クエリの表現を広げる「銀の弾丸」と見なされている。
また,階層的知識向上(HIKE)を用いたCLIRというモデルを提案する。
提案モデルでは,クエリやドキュメント,KGのテキスト情報を多言語BERTでエンコードし,クエリ文書マッチングプロセスに階層的な情報融合機構を組み込む。
特に、HIKEはまず、KGのエンティティとその周辺を知識レベルの融合とクエリ表現に統合し、ソース言語とターゲット言語の両方からの知識を組み合わせて言語レベルの融合と言語ギャップをさらに緩和する。
最後に,実験結果から,HIKEは最先端の競争相手よりも大幅に改善されていることが示された。
関連論文リスト
- Knowledge-Aware Query Expansion with Large Language Models for Textual and Relational Retrieval [49.42043077545341]
知識グラフ(KG)から構造化文書関係を付加したLLMを拡張した知識対応クエリ拡張フレームワークを提案する。
文書テキストをリッチなKGノード表現として活用し、KAR(Knowledge-Aware Retrieval)のための文書ベースの関係フィルタリングを利用する。
論文 参考訳(メタデータ) (2024-10-17T17:03:23Z) - Cross-Lingual Multi-Hop Knowledge Editing -- Benchmarks, Analysis and a Simple Contrastive Learning based Approach [53.028586843468915]
言語横断的な設定で様々なSoTA知識編集技術の性能を計測・解析するための多言語多言語知識編集パラダイムを提案する。
具体的には、知識編集能力を測定するために並列言語間ベンチマーク CROLIN-MQUAKE を作成します。
次に,言語間マルチホップ知識編集システムであるCLEVER-CKEを提案する。
論文 参考訳(メタデータ) (2024-07-14T17:18:16Z) - MST5 -- Multilingual Question Answering over Knowledge Graphs [1.6470999044938401]
知識グラフ質問回答(KGQA)は、自然言語を用いたグラフベースモデルに格納された膨大な知識のクエリを単純化する。
既存の多言語KGQAシステムは、英語システムに匹敵する性能を達成するための課題に直面している。
本稿では,言語コンテキストとエンティティ情報を言語モデルの処理パイプラインに直接組み込むことで,多言語KGQAシステムを強化するための簡易なアプローチを提案する。
論文 参考訳(メタデータ) (2024-07-08T15:37:51Z) - Leveraging Large Language Models for Semantic Query Processing in a Scholarly Knowledge Graph [1.7418328181959968]
本研究は,革新的なセマンティッククエリ処理システムを開発することを目的としている。
オーストラリア国立大学のコンピュータサイエンス(CS)研究者による研究成果に関する総合的な情報を得ることができる。
論文 参考訳(メタデータ) (2024-05-24T09:19:45Z) - Redefining Information Retrieval of Structured Database via Large Language Models [10.117751707641416]
本稿では,ChatLRと呼ばれる新しい検索拡張フレームワークを提案する。
主に、Large Language Models (LLM) の強力な意味理解能力を用いて、正確かつ簡潔な情報検索を実現する。
実験の結果、ChatLRがユーザクエリに対処する効果を示し、全体の情報検索精度は98.8%を超えた。
論文 参考訳(メタデータ) (2024-05-09T02:37:53Z) - Knowledge Graphs and Pre-trained Language Models enhanced Representation Learning for Conversational Recommender Systems [58.561904356651276]
本稿では,対話型推薦システムのためのエンティティの意味理解を改善するために,知識強化型エンティティ表現学習(KERL)フレームワークを紹介する。
KERLは知識グラフと事前訓練された言語モデルを使用して、エンティティの意味的理解を改善する。
KERLはレコメンデーションとレスポンス生成の両方のタスクで最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-12-18T06:41:23Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Soft Prompt Decoding for Multilingual Dense Retrieval [30.766917713997355]
本稿では,MLIRタスクへの言語間情報検索のための最先端手法の適用により,準最適性能が得られることを示す。
これは多言語コレクションの不均一性と不均衡性に起因する。
KD-SPDはMLIRの新しいソフトプロンプトデコーディング手法で、異なる言語における文書の表現を同じ埋め込み空間に暗黙的に「翻訳」する。
論文 参考訳(メタデータ) (2023-05-15T21:17:17Z) - Simple Yet Effective Neural Ranking and Reranking Baselines for
Cross-Lingual Information Retrieval [50.882816288076725]
言語間情報検索は、ある言語で文書を検索し、別の言語でクエリーを検索するタスクである。
本研究では,多段階アーキテクチャを用いた言語横断検索のための異なるアプローチを体系化するための概念的枠組みを提案する。
我々は、ペルシア、ロシア、中国のTREC 2022 NeuCLIRトラックから収集したテストコレクションに対して、Anserini IRツールキットとPyserini IRツールキットに単純かつ効果的に再現可能なベースラインを実装した。
論文 参考訳(メタデータ) (2023-04-03T14:17:00Z) - ERICA: Improving Entity and Relation Understanding for Pre-trained
Language Models via Contrastive Learning [97.10875695679499]
そこで本研究では, ERICA という新たなコントラスト学習フレームワークを提案し, エンティティとその関係をテキストでより深く理解する。
実験の結果,提案する erica フレームワークは文書レベルの言語理解タスクにおいて一貫した改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:35:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。