論文の概要: Adapting LLMs for Efficient, Personalized Information Retrieval: Methods
and Implications
- arxiv url: http://arxiv.org/abs/2311.12287v1
- Date: Tue, 21 Nov 2023 02:01:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 02:35:02.005864
- Title: Adapting LLMs for Efficient, Personalized Information Retrieval: Methods
and Implications
- Title(参考訳): 効率よくパーソナライズされた情報検索のためのLCMの適応:方法と意味
- Authors: Samira Ghodratnama and Mehrdad Zakershahrak
- Abstract要約: LLM(Large Language Models)は、人間に似たテキストの理解と生成に優れた言語モデルである。
本稿では,言語モデル(LLM)と情報検索(IR)システムの統合戦略について検討する。
- 参考スコア(独自算出の注目度): 0.7832189413179361
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The advent of Large Language Models (LLMs) heralds a pivotal shift in online
user interactions with information. Traditional Information Retrieval (IR)
systems primarily relied on query-document matching, whereas LLMs excel in
comprehending and generating human-like text, thereby enriching the IR
experience significantly. While LLMs are often associated with chatbot
functionalities, this paper extends the discussion to their explicit
application in information retrieval. We explore methodologies to optimize the
retrieval process, select optimal models, and effectively scale and orchestrate
LLMs, aiming for cost-efficiency and enhanced result accuracy. A notable
challenge, model hallucination-where the model yields inaccurate or
misinterpreted data-is addressed alongside other model-specific hurdles. Our
discourse extends to crucial considerations including user privacy, data
optimization, and the necessity for system clarity and interpretability.
Through a comprehensive examination, we unveil not only innovative strategies
for integrating Language Models (LLMs) with Information Retrieval (IR) systems,
but also the consequential considerations that underline the need for a
balanced approach aligned with user-centric principles.
- Abstract(参考訳): 大規模言語モデル(llms)の出現は、情報とのオンラインユーザインタラクションにおいて重要な変化をもたらす。
従来のIR(Information Retrieval)システムは主にクエリ文書マッチングに依存していたが、LLMは人間のようなテキストの理解と生成に優れており、IR体験を著しく豊かにしている。
LLMはチャットボットの機能と関連付けられることが多いが,本論文では,情報検索におけるその明示的な応用について論じる。
提案手法は,検索プロセスの最適化,最適モデルの選択,LLMのスケールとオーケストレーションを効果的に行う手法である。
注目すべき課題は、モデルが不正確または誤解釈したデータを出力するモデル幻覚(model hallucination)である。
ユーザのプライバシやデータの最適化,システムの明確性や解釈可能性の必要性など,当社の言論は極めて重要視されています。
本稿では,言語モデル (LLM) と情報検索 (IR) システムを統合するための革新的な戦略を明らかにするとともに,ユーザ中心の原則に沿ったバランスのとれたアプローチの必要性を明らかにする。
関連論文リスト
- Unsupervised Information Refinement Training of Large Language Models
for Retrieval-Augmented Generation [133.52393894760107]
InFO-RAG という情報改質訓練手法を提案する。
InFO-RAGは低コストで、様々なタスクにまたがっている。
LLaMA2の性能を平均9.39%向上させる。
論文 参考訳(メタデータ) (2024-02-28T08:24:38Z) - How Can LLM Guide RL? A Value-Based Approach [68.55316627400683]
強化学習(Reinforcement Learning, RL)は、将来の行動方針をフィードバックで改善することにより、シーケンシャルな意思決定問題の事実上の標準的実践となった。
大規模言語モデル(LLM)の最近の発展は、言語理解と生成において印象的な能力を示したが、探索と自己改善能力に欠けていた。
我々はLINVITというアルゴリズムを開発し、LLMガイダンスを値ベースRLの正規化因子として組み込んで学習に必要なデータ量を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-25T20:07:13Z) - Self-Retrieval: Building an Information Retrieval System with One Large
Language Model [102.78988790457004]
Self-Retrievalは、エンドツーエンドのLLM駆動の情報検索アーキテクチャである。
本稿では,自己検索が従来の検索手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-02-23T18:45:35Z) - Learning to Reduce: Optimal Representations of Structured Data in
Prompting Large Language Models [42.16047343029512]
大規模言語モデル(LLM)は汎用AIエージェントとして広く利用されている。
本稿では,入力コンテキストの縮小バージョンを生成するために,言語モデルを微調整するフレームワークであるLearning to Reduceを提案する。
入力コンテキストから関連する証拠を選択する際に,本モデルが同等の精度を達成することを示す。
論文 参考訳(メタデータ) (2024-02-22T00:41:23Z) - ChatGPT Based Data Augmentation for Improved Parameter-Efficient
Debiasing of LLMs [69.27030571729392]
大型言語モデル(LLM)は有害な社会的バイアスを示す。
そこで本研究では,ChatGPTを用いて合成学習データを生成する手法を提案する。
論文 参考訳(メタデータ) (2024-02-19T01:28:48Z) - Towards Efficient Generative Large Language Model Serving: A Survey from
Algorithms to Systems [14.355768064425598]
生成型大規模言語モデル(LLM)が最前線に立ち、データとのインタラクション方法に革命をもたらします。
しかし、これらのモデルをデプロイする際の計算強度とメモリ消費は、効率性の観点から大きな課題を呈している。
本研究は,機械学習システム(MLSys)研究の観点から,効率的なLCM提供手法の必要性について考察する。
論文 参考訳(メタデータ) (2023-12-23T11:57:53Z) - Active Preference Inference using Language Models and Probabilistic
Reasoning [15.198912276468198]
本稿では,大規模言語モデルによるユーザの嗜好の推測を支援する推論時アルゴリズムを提案する。
我々のアルゴリズムは, LLM を誘導することで条件分布が定義される確率モデルを用いている。
実商品を用いた簡易な対話型Webショッピング設定の結果, エントロピー低減アルゴリズムを備えたLCMは, ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2023-12-19T09:58:54Z) - Representation Learning with Large Language Models for Recommendation [34.46344639742642]
本稿では,大規模言語モデル (LLM) を用いた表現学習によるレコメンデータの強化を目的とした,モデルに依存しないフレームワーク RLMRec を提案する。
RLMRecには補助的なテキスト信号が組み込まれており、LLMが権限を持つユーザ/イテムプロファイリングパラダイムを開発し、LLMの意味空間と協調的関係信号の表現空間を整合させる。
論文 参考訳(メタデータ) (2023-10-24T15:51:13Z) - Query-Dependent Prompt Evaluation and Optimization with Offline Inverse
RL [62.824464372594576]
ゼロショットプロンプト最適化により,Large Language Models (LLM) の算術的推論能力を向上させることを目的とする。
このような最適化では、以前見過ごされたクエリ依存の目的を特定します。
本稿では、オフライン逆強化学習を利用して、実演データから洞察を引き出すPrompt-OIRLを紹介する。
論文 参考訳(メタデータ) (2023-09-13T01:12:52Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data
Selection for Instruction Tuning [54.222609226692015]
我々は大規模言語モデルのための自己誘導手法を導入し、大規模なオープンソースデータセットからサクラサンプルを自律的に識別し、選択する。
私たちの重要なイノベーションであるIFD(Instruction-Following Difficulty)メトリックは、モデルが期待する応答と自動生成技術との間の相違を識別するための重要なツールとして現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z) - ChatGPT as your Personal Data Scientist [0.9689893038619583]
本稿では,ChatGPTを用いた対話型データサイエンスフレームワークについて紹介する。
データビジュアライゼーション、タスクの定式化、予測エンジニアリング、結果概要と勧告の4つのダイアログ状態を中心に、私たちのモデルが中心になっています。
要約して,会話データ科学の新たな概念が実現可能であることを証明するとともに,複雑なタスクを解く上でLLMが有効であることを示すエンド・ツー・エンド・エンド・システムを開発した。
論文 参考訳(メタデータ) (2023-05-23T04:00:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。