論文の概要: Leveraging Translation For Optimal Recall: Tailoring LLM Personalization
With User Profiles
- arxiv url: http://arxiv.org/abs/2402.13500v1
- Date: Wed, 21 Feb 2024 03:25:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 17:06:30.647586
- Title: Leveraging Translation For Optimal Recall: Tailoring LLM Personalization
With User Profiles
- Title(参考訳): 最適リコールのための翻訳活用:ユーザプロファイルによるllmパーソナライゼーションの調整
- Authors: Karthik Ravichandran, Sarmistha Sarna Gomasta
- Abstract要約: 本稿では,言語間情報検索システムにおけるリコール改善のための新しい手法について検討する。
提案手法は,マルチレベル翻訳,セマンティック埋め込みに基づく拡張,ユーザプロファイル中心の拡張を組み合わせた手法である。
ニュースとTwitterデータセットの実験では、ベースラインBM25ランキングよりも優れたパフォーマンスを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores a novel technique for improving recall in cross-language
information retrieval (CLIR) systems using iterative query refinement grounded
in the user's lexical-semantic space. The proposed methodology combines
multi-level translation, semantic embedding-based expansion, and user
profile-centered augmentation to address the challenge of matching variance
between user queries and relevant documents. Through an initial BM25 retrieval,
translation into intermediate languages, embedding lookup of similar terms, and
iterative re-ranking, the technique aims to expand the scope of potentially
relevant results personalized to the individual user. Comparative experiments
on news and Twitter datasets demonstrate superior performance over baseline
BM25 ranking for the proposed approach across ROUGE metrics. The translation
methodology also showed maintained semantic accuracy through the multi-step
process. This personalized CLIR framework paves the path for improved
context-aware retrieval attentive to the nuances of user language.
- Abstract(参考訳): 本稿では,ユーザの語彙-意味空間に根ざした反復的クエリリファインメントを用いた言語間情報検索(CLIR)システムにおけるリコール改善手法を提案する。
提案手法は,マルチレベル翻訳,セマンティック埋め込みに基づく拡張,およびユーザプロファイル中心の拡張を組み合わせることで,ユーザクエリと関連するドキュメント間の差異の一致に対処する。
最初のbm25検索、中間言語への翻訳、類似用語の検索、反復的な再ランキングを通じて、この技術は、個々のユーザーにパーソナライズされる可能性のある結果の範囲を拡大することを目的としている。
ニュースとTwitterデータセットの比較実験では、ROUGEメトリクスをまたいだ提案手法のベースラインBM25ランキングよりも優れたパフォーマンスを示している。
翻訳手法は多段階プロセスを通して意味的精度を維持できることを示した。
このパーソナライズされたCLIRフレームワークは、ユーザ言語のニュアンスに配慮したコンテキスト認識検索の改善パスを舗装する。
関連論文リスト
- Hierarchical Indexing for Retrieval-Augmented Opinion Summarization [68.09977874599925]
本稿では,抽出アプローチの帰属性と拡張性と,大規模言語モデル(LLM)の一貫性と拡散性を組み合わせた,教師なし抽象的意見要約手法を提案する。
我々の方法であるHIROは、意味的に整理された離散的な階層を通して文を経路にマッピングするインデックス構造を学習する。
推測時にインデックスを投入し、入力レビューから人気意見を含む文群を識別し、検索する。
論文 参考訳(メタデータ) (2024-03-01T10:38:07Z) - Beyond Contrastive Learning: A Variational Generative Model for
Multilingual Retrieval [109.62363167257664]
本稿では,多言語テキスト埋め込み学習のための生成モデルを提案する。
我々のモデルは、$N$言語で並列データを操作する。
本手法は, 意味的類似性, ビットクストマイニング, 言語間質問検索などを含む一連のタスクに対して評価を行う。
論文 参考訳(メタデータ) (2022-12-21T02:41:40Z) - Retrofitting Multilingual Sentence Embeddings with Abstract Meaning
Representation [70.58243648754507]
抽象的意味表現(AMR)を用いた既存の多言語文の埋め込みを改善する新しい手法を提案する。
原文入力と比較すると、AMRは文の中核概念と関係を明確かつ曖昧に表す構造的意味表現である。
実験結果から,多言語文をAMRで埋め込むと,意味的類似性と伝達タスクの両方において,最先端の性能が向上することがわかった。
論文 参考訳(メタデータ) (2022-10-18T11:37:36Z) - On Cross-Lingual Retrieval with Multilingual Text Encoders [51.60862829942932]
言語間文書・文検索タスクにおける最先端多言語エンコーダの適合性について検討する。
教師なしのアドホック文と文書レベルのCLIR実験でそれらの性能をベンチマークする。
我々は、ゼロショット言語とドメイン転送CLIR実験のシリーズにおける英語関連データに基づいて、教師付き方式で微調整された多言語エンコーダの評価を行った。
論文 参考訳(メタデータ) (2021-12-21T08:10:27Z) - Cross-language Sentence Selection via Data Augmentation and Rationale
Training [22.106577427237635]
雑音のある並列文データに対するデータ拡張と負のサンプリング技術を用いて、言語間埋め込みに基づくクエリ関連モデルの学習を行う。
その結果、同じ並列データでトレーニングされた複数の最先端機械翻訳+モノリンガル検索システムよりも、このアプローチが優れているか、あるいは優れていることが示された。
論文 参考訳(メタデータ) (2021-06-04T07:08:47Z) - Unsupervised Cross-lingual Adaptation for Sequence Tagging and Beyond [58.80417796087894]
多言語事前訓練言語モデル(mPTLM)による言語間適応は、主にゼロショットアプローチと翻訳に基づくアプローチの2行からなる。
本稿では、ゼロショットアプローチと翻訳に基づくアプローチを統合し、適応性能を向上させるための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-23T13:47:01Z) - Examination and Extension of Strategies for Improving Personalized
Language Modeling via Interpolation [59.35932511895986]
我々は,グローバルLSTMベースのオーサリングモデルをユーザ個人化n-gramモデルで補間することにより,ユーザレベルでのオフラインメトリクスの改善を示す。
利用者の80%以上がパープレキシティのリフトを受けており、ユーザー当たり平均5.2%がパープレキシティのリフトを受け取っている。
論文 参考訳(メタデータ) (2020-06-09T19:29:41Z) - Leveraging Cognitive Search Patterns to Enhance Automated Natural
Language Retrieval Performance [0.0]
ユーザの検索行動を模倣する認知的再構成パターンが強調されている。
問合せの概念表現を考慮し,これらのパターンの適用を形式化する。
遺伝的アルゴリズムに基づく重み付けプロセスでは、概念的役割タイプに応じて用語に重点を置くことができる。
論文 参考訳(メタデータ) (2020-04-21T14:13:33Z) - Multilingual Alignment of Contextual Word Representations [49.42244463346612]
BERTはXNLIのゼロショット性能をベースモデルに比べて大幅に改善した。
単語検索の文脈バージョンを導入し、下流のゼロショット転送とよく相関していることを示す。
これらの結果は、大規模多言語事前学習モデルの理解に有用な概念としてコンテキストアライメントをサポートする。
論文 参考訳(メタデータ) (2020-02-10T03:27:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。