論文の概要: EnterpriseEM: Fine-tuned Embeddings for Enterprise Semantic Search
- arxiv url: http://arxiv.org/abs/2406.00010v1
- Date: Sat, 18 May 2024 14:06:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-09 16:19:21.708913
- Title: EnterpriseEM: Fine-tuned Embeddings for Enterprise Semantic Search
- Title(参考訳): EnterpriseEM: エンタープライズセマンティック検索のための微調整の埋め込み
- Authors: Kamalkumar Rathinasamy, Jayarama Nettar, Amit Kumar, Vishal Manchanda, Arun Vijayakumar, Ayush Kataria, Venkateshprasanna Manjunath, Chidambaram GS, Jaskirat Singh Sodhi, Shoeb Shaikh, Wasim Akhtar Khan, Prashant Singh, Tanishq Dattatray Ige, Vipin Tiwari, Rajab Ali Mondal, Harshini K, S Reka, Chetana Amancharla, Faiz ur Rahman, Harikrishnan P A, Indraneel Saha, Bhavya Tiwary, Navin Shankar Patel, Pradeep T S, Balaji A J, Priyapravas, Mohammed Rafee Tarafdar,
- Abstract要約: 本研究では,企業環境に特化して事前学習した埋め込みモデルを微調整する手法を提案する。
本稿では,微調整のプロセス,検索精度への影響,企業情報管理における潜在的メリットについて論じる。
- 参考スコア(独自算出の注目度): 1.2097014193871654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Enterprises grapple with the significant challenge of managing proprietary unstructured data, hindering efficient information retrieval. This has led to the emergence of AI-driven information retrieval solutions, designed to adeptly extract relevant insights to address employee inquiries. These solutions often leverage pre-trained embedding models and generative models as foundational components. While pre-trained embeddings may exhibit proximity or disparity based on their original training objectives, they might not fully align with the unique characteristics of enterprise-specific data, leading to suboptimal alignment with the retrieval goals of enterprise environments. In this paper, we propose a methodology to fine-tune pre-trained embedding models specifically for enterprise environments. By adapting the embeddings to better suit the retrieval tasks prevalent in enterprises, we aim to enhance the performance of information retrieval solutions. We discuss the process of fine-tuning, its effect on retrieval accuracy, and the potential benefits for enterprise information management. Our findings demonstrate the efficacy of fine-tuned embedding models in improving the precision and relevance of search results in enterprise settings.
- Abstract(参考訳): 企業は、プロプライエタリな非構造化データを管理するという重大な課題に対処し、効率的な情報検索を妨げる。
これにより、AIによる情報検索ソリューションが出現し、従業員の問い合わせに対処するために、適切な洞察を抽出するように設計されている。
これらのソリューションは、しばしば基礎成分として事前訓練された埋め込みモデルと生成モデルを利用する。
事前学習した埋め込みは、元のトレーニング目標に基づいて近接性や不均一性を示す可能性があるが、企業固有のデータの特徴と完全に一致しない可能性があり、企業環境の検索目標と最適以下に一致させる。
本稿では,企業環境に特化して事前学習した埋め込みモデルを微調整する手法を提案する。
企業で普及している検索課題に適合するように埋め込みを適応させることで,情報検索ソリューションの性能向上を目指す。
本稿では,微調整のプロセス,検索精度への影響,企業情報管理における潜在的メリットについて論じる。
本研究は,エンタープライズ環境での検索結果の精度と妥当性を向上させるため,微調整埋め込みモデルの有効性を示すものである。
関連論文リスト
- From Machine Learning to Machine Unlearning: Complying with GDPR's Right to be Forgotten while Maintaining Business Value of Predictive Models [9.380866972744633]
この研究は、Ensemble-based iTerative Information Distillation (ETID)と呼ばれる、総合的な機械学習から学習へのフレームワークを開発する。
ETIDには、データ消去要求の処理を容易にする正確な予測モデルを構築するための、新しいアンサンブル学習手法が組み込まれている。
また, 効率的かつ効率的なデータ消去を実現するために, 構築されたアンサンブルモデルに適した, 蒸留に基づく未学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-26T05:42:46Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Take the Bull by the Horns: Hard Sample-Reweighted Continual Training
Improves LLM Generalization [165.98557106089777]
大きな言語モデル(LLM)の能力を高めることが大きな課題だ。
本研究は,従来の事前学習データセットを用いたLCMの光連続訓練に関する実証的戦略から始まった。
次に、この戦略をインスタンス重み付け分散ロバスト最適化の原則化されたフレームワークに定式化します。
論文 参考訳(メタデータ) (2024-02-22T04:10:57Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Data-Driven Offline Decision-Making via Invariant Representation
Learning [97.49309949598505]
オフラインのデータ駆動意思決定は、アクティブなインタラクションなしで最適化された決定を合成する。
オフラインデータからトレーニングされたモデルへの入力に関して最適化する場合、誤って良いように見えるアウト・オブ・ディストリビューション(OOD)インプットを生成するのは簡単です。
本稿では、オフラインデータ駆動意思決定をドメイン適応として定式化し、最適化された決定値の正確な予測を行うことを目標とする。
論文 参考訳(メタデータ) (2022-11-21T11:01:37Z) - Perona: Robust Infrastructure Fingerprinting for Resource-Efficient Big
Data Analytics [0.06524460254566904]
ビッグデータ分析で使用するために,堅牢なインフラストラクチャフィンガープリントのための新しいアプローチであるPeronaを紹介します。
Peronaは、ベンチマークツールの共通セットと設定をターゲットリソースに採用しているため、ベンチマークメトリクスは直接比較され、ランキングが有効になる。
われわれのアプローチは、我々の実験から収集したデータと、リソース構成最適化に関する関連する作業の両方に基づいて評価する。
論文 参考訳(メタデータ) (2022-11-15T15:48:09Z) - Efficient Real-world Testing of Causal Decision Making via Bayesian
Experimental Design for Contextual Optimisation [12.37745209793872]
文脈的意思決定の評価と改善のためのデータ収集のためのモデルに依存しないフレームワークを提案する。
過去の治療課題の後悔をデータ効率で評価するために,本手法を用いた。
論文 参考訳(メタデータ) (2022-07-12T01:20:11Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Fix your Models by Fixing your Datasets [0.6058427379240697]
現在の機械学習ツールは、データ品質を改善するための合理化されたプロセスを欠いている。
そこで,本研究では,データセットにノイズや誤認のあるサンプルを見つけるための体系的枠組みを提案する。
2つのFortune 500企業のプライベートエンタープライズデータセットと同様に、当社のフレームワークの有効性を公開してみます。
論文 参考訳(メタデータ) (2021-12-15T02:41:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。