論文の概要: From Traditional Adaptive Data Caching to Adaptive Context Caching: A
Survey
- arxiv url: http://arxiv.org/abs/2211.11259v1
- Date: Mon, 21 Nov 2022 08:47:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 23:41:20.364528
- Title: From Traditional Adaptive Data Caching to Adaptive Context Caching: A
Survey
- Title(参考訳): 従来のAdaptive Data CachingからAdaptive Context Cachingへ:調査
- Authors: Shakthi Weerasinghe, Arkady Zaslavsky, Seng W. Loke, Alireza Hassani,
Amin Abken, Alexey Medvedev
- Abstract要約: 課題の1つは、多数のコンテキストクエリに応答する際のパフォーマンスの改善である。
キャッシングは、コンテキストの透明性と可変性などの機能を改善するための実証済みの方法であるが、コンテキストクエリの不均一性は、追加のリアルタイムコスト管理の問題を引き起こす。
本稿では,適応型データキャッシングにおける最先端技術に関する批判的調査を行い,コストと性能効率のよいキャッシュ戦略における知識の体系を構築することを目的とする。
- 参考スコア(独自算出の注目度): 0.7046417074932255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Context data is in demand more than ever with the rapid increase in the
development of many context-aware Internet of Things applications. Research in
context and context-awareness is being conducted to broaden its applicability
in light of many practical and technical challenges. One of the challenges is
improving performance when responding to large number of context queries.
Context Management Platforms that infer and deliver context to applications
measure this problem using Quality of Service (QoS) parameters. Although
caching is a proven way to improve QoS, transiency of context and features such
as variability, heterogeneity of context queries pose an additional real-time
cost management problem. This paper presents a critical survey of
state-of-the-art in adaptive data caching with the objective of developing a
body of knowledge in cost- and performance-efficient adaptive caching
strategies. We comprehensively survey a large number of research publications
and evaluate, compare, and contrast different techniques, policies, approaches,
and schemes in adaptive caching. Our critical analysis is motivated by the
focus on adaptively caching context as a core research problem. A formal
definition for adaptive context caching is then proposed, followed by
identified features and requirements of a well-designed, objective optimal
adaptive context caching strategy.
- Abstract(参考訳): コンテキストデータは、多くのコンテキスト対応モノのインターネットアプリケーションの開発が急速に増加していることで、これまで以上に需要が高まっている。
コンテキストとコンテキスト認識の研究は、多くの実践的、技術的課題に照らして適用性を広げるために実施されている。
課題のひとつは、大量のコンテキストクエリに対応する際のパフォーマンス向上だ。
アプリケーションにコンテキストを推論し、提供するコンテキスト管理プラットフォームは、Quality of Service(QoS)パラメータを使用してこの問題を測定します。
キャッシングはQoSを改善するための実証済みの方法であるが、コンテキストの透明性と可変性、コンテキストクエリの不均一性といった特徴は、さらなるリアルタイムコスト管理の問題を引き起こす。
本稿では,適応型データキャッシングにおける最先端技術に関する批判的調査を行い,コストと性能効率のよいキャッシュ戦略の知識体系を構築することを目的とする。
我々は,多数の研究論文を総合的に調査し,適応キャッシングにおける異なる手法,方針,アプローチ,スキームを評価し,比較し,対比する。
我々の批判的分析は、中核的な研究問題としてコンテキストを適応的にキャッシュすることに焦点を当てている。
適応型コンテキストキャッシュの形式的定義が提案され、その後、適切に設計された最適適応型コンテキストキャッシュ戦略の特徴と要件が特定される。
関連論文リスト
- Edge Caching Optimization with PPO and Transfer Learning for Dynamic Environments [3.720975664058743]
動的環境においては、コンテンツの人気の変化や要求率の変化が頻繁に発生し、事前学習されたポリシーが以前の条件に最適化されているため、効果が低下する。
我々は,コンテンツの人気と要求率の変化を検知し,キャッシュ戦略のタイムリーな調整を確保する機構を開発する。
また,事前知識を活用して,新しい環境における収束を加速する伝達学習に基づくPPOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-14T21:01:29Z) - Improving Retrieval in Sponsored Search by Leveraging Query Context Signals [6.152499434499752]
本稿では,クエリをリッチなコンテキスト信号で拡張することで,クエリ理解を強化する手法を提案する。
我々は、Web検索のタイトルとスニペットを使って、現実世界の情報にクエリを接地し、GPT-4を使ってクエリの書き直しと説明を生成する。
我々の文脈認識アプローチは文脈自由モデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2024-07-19T14:28:53Z) - Thread: A Logic-Based Data Organization Paradigm for How-To Question Answering with Retrieval Augmented Generation [49.36436704082436]
ハウツー質問は意思決定プロセスに不可欠なものであり、動的でステップバイステップの回答を必要とする。
我々は,現在のシステムがハウツー質問をより効果的に扱えるようにするための新しいデータ組織パラダイムThreadを提案する。
論文 参考訳(メタデータ) (2024-06-19T09:14:41Z) - Improving Retrieval Augmented Open-Domain Question-Answering with Vectorized Contexts [83.57864140378035]
本稿では,オープンドメイン質問応答タスクにおいて,より長いコンテキストをカバーできる手法を提案する。
コンテキストを効果的にエンコードする小さなエンコーダ言語モデルを利用し、エンコーダは元の入力とクロスアテンションを適用する。
微調整後、2つのホールドインデータセット、4つのホールドアウトデータセット、および2つのIn Context Learning設定のパフォーマンスが改善された。
論文 参考訳(メタデータ) (2024-04-02T15:10:11Z) - Attention-Enhanced Prioritized Proximal Policy Optimization for Adaptive Edge Caching [4.2579244769567675]
本稿では,PPO(Proximal Policy Optimization)に基づくキャッシュ方式を提案する。
本手法は近年のDeep Reinforcement Learning-based Techniqueより優れている。
論文 参考訳(メタデータ) (2024-02-08T17:17:46Z) - Learning to Filter Context for Retrieval-Augmented Generation [75.18946584853316]
生成モデルは、部分的にまたは完全に無関係な経路が与えられた出力を生成するために要求される。
FILCOは、語彙と情報理論のアプローチに基づいて有用なコンテキストを特定する。
テスト時に検索したコンテキストをフィルタリングできるコンテキストフィルタリングモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-14T18:41:54Z) - Reinforcement Learning Based Approaches to Adaptive Context Caching in
Distributed Context Management Systems [0.7559720049837457]
パフォーマンスメトリクス駆動のコンテキストキャッシュは、分散コンテキスト管理システムのスループットとレスポンス時間に大きな影響を与えます。
本稿では,文脈を適応的にキャッシュするための強化学習に基づくアプローチを提案する。
我々の新しいアルゴリズムは、コンテキストクエリとサブクエリを効率的に再利用し、キャッシュされたコンテキストを再利用することを可能にする。
論文 参考訳(メタデータ) (2022-12-22T13:52:53Z) - Better Retrieval May Not Lead to Better Question Answering [59.1892787017522]
システムの性能を改善するための一般的なアプローチは、取得したコンテキストの品質をIRステージから改善することである。
マルチホップ推論を必要とするオープンドメインのQAデータセットであるStrategyQAでは、この一般的なアプローチは驚くほど非効率である。
論文 参考訳(メタデータ) (2022-05-07T16:59:38Z) - AutoAdapt: Automated Segmentation Network Search for Unsupervised Domain
Adaptation [4.793219747021116]
我々は、ドメイン適応のためのアーキテクチャレベルの視点と分析を提供するために、ニューラルアーキテクチャサーチ(NAS)を実行する。
本稿では,最大平均誤差と地域重み付きエントロピーを用いて,このギャップを埋めて精度を推定する手法を提案する。
論文 参考訳(メタデータ) (2021-06-24T17:59:02Z) - Policy Information Capacity: Information-Theoretic Measure for Task
Complexity in Deep Reinforcement Learning [83.66080019570461]
課題の難易度について,環境にとらわれない,アルゴリズムにとらわれない2つの定量的指標を提案する。
これらの指標は、様々な代替案よりも、正規化タスク可解性スコアとの相関が高いことを示す。
これらのメトリクスは、鍵設計パラメータの高速かつ計算効率の良い最適化にも使用できる。
論文 参考訳(メタデータ) (2021-03-23T17:49:50Z) - Reinforcement Learning for Caching with Space-Time Popularity Dynamics [61.55827760294755]
キャッシングは次世代ネットワークにおいて重要な役割を果たすと想定されている。
コンテンツをインテリジェントにプリフェッチし、保存するためには、キャッシュノードは、何といつキャッシュするかを学ばなければならない。
本章では、近似キャッシングポリシー設計のための多目的強化学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-19T01:23:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。