論文の概要: The Long Tail of Context: Does it Exist and Matter?
- arxiv url: http://arxiv.org/abs/2210.01023v1
- Date: Mon, 3 Oct 2022 15:39:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 17:49:00.933254
- Title: The Long Tail of Context: Does it Exist and Matter?
- Title(参考訳): 文脈の長い末尾:それは存在し重要か?
- Authors: Konstantin Bauman, Alexey Vasilev, Alexander Tuzhilin
- Abstract要約: コンテキストは、過去20年間、レコメンデーションシステムにおいて重要なトピックでした。
いくつかのレコメンデーションシステムアプリケーションは、より大きく、より広いタイプのコンテキストを扱う。
本稿では,多種多様なコンテキストを扱うコンテキストリッチなアプリケーションについて検討する。
- 参考スコア(独自算出の注目度): 74.05842462244705
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Context has been an important topic in recommender systems over the past two
decades. A standard representational approach to context assumes that
contextual variables and their structures are known in an application. Most of
the prior CARS papers following representational approach manually selected and
considered only a few crucial contextual variables in an application, such as
time, location, and company of a person. This prior work demonstrated
significant recommendation performance improvements when various CARS-based
methods have been deployed in numerous applications. However, some recommender
systems applications deal with a much bigger and broader types of contexts, and
manually identifying and capturing a few contextual variables is not sufficient
in such cases. In this paper, we study such ``context-rich'' applications
dealing with a large variety of different types of contexts. We demonstrate
that supporting only a few most important contextual variables, although
useful, is not sufficient. In our study, we focus on the application that
recommends various banking products to commercial customers within the context
of dialogues initiated by customer service representatives. In this
application, we managed to identify over two hundred types of contextual
variables. Sorting those variables by their importance forms the Long Tail of
Context (LTC). In this paper, we empirically demonstrate that LTC matters and
using all these contextual variables from the Long Tail leads to significant
improvements in recommendation performance.
- Abstract(参考訳): コンテキストは、過去20年間、レコメンデーションシステムにおいて重要なトピックでした。
コンテキストに対する標準的な表現的アプローチは、コンテキスト変数とその構造がアプリケーションで知られていると仮定する。
以前のCARSの論文の多くは手動で表現的アプローチに従っており、時間、場所、人物の会社など、アプリケーションにおいて重要なコンテキスト変数だけを選択して検討していた。
この以前の作業は、様々なアプリケーションで様々な車ベースのメソッドがデプロイされた場合に、大きなレコメンデーションパフォーマンスの改善を示した。
しかし、いくつかのレコメンデーションシステムアプリケーションは、より大きく、より広いタイプのコンテキストを扱うため、いくつかのコンテキスト変数を手動で識別し、キャプチャすることは、そのようなケースでは不十分である。
本稿では,多種多様なコンテキストを扱う`context-rich' アプリケーションについて検討する。
重要なコンテキスト変数のみをサポートするだけでは有効ではないが、十分ではないことを示す。
本研究では,顧客サービス担当者による対話の文脈において,様々な銀行商品を商業顧客に提供するアプリケーションに焦点を当てた。
このアプリケーションでは,200種類以上のコンテキスト変数を識別することができた。
これらの変数をその重要性でソートすることは、Long Tail of Context(LTC)を形成する。
本稿では,ltcが重要であることを実証し,これらすべてのコンテキスト変数をロングテールから使用することで,レコメンデーション性能が大幅に向上することを示す。
関連論文リスト
- Leveraging Long-Context Large Language Models for Multi-Document Understanding and Summarization in Enterprise Applications [1.1682259692399921]
LLM(Long-context Large Language Model)は、広範囲の接続を把握し、結合的な要約を提供し、様々な業界領域に適応することができる。
ケーススタディでは、効率と精度の両方が顕著に向上している。
論文 参考訳(メタデータ) (2024-09-27T05:29:31Z) - Why does in-context learning fail sometimes? Evaluating in-context learning on open and closed questions [14.999106867218572]
オープン・クローズドな質問に対するタスクノベルティと難解さの関数として,文脈内学習の性能を測定した。
反故意に、トピックとより整合したコンテキストは、必ずしもあまり関係のないコンテキストに役立ちません。
論文 参考訳(メタデータ) (2024-07-02T07:52:30Z) - Is It Really Long Context if All You Need Is Retrieval? Towards Genuinely Difficult Long Context NLP [32.19010113355365]
異なるタスクをコンテキスト長で膨らませることは、生産的ではないと我々は主張する。
我々は、長い文脈でそれらがより困難になる特性に基づいて、長い文脈の分類を解き放つことを提案する。
必要な情報が非常に長く、入力内で非常に拡散している、最も困難で興味深い設定は、非常に過度に探索されている、と結論付けている。
論文 参考訳(メタデータ) (2024-06-29T11:09:47Z) - Code-Switched Language Identification is Harder Than You Think [69.63439391717691]
コードスイッチングは、文字と音声の通信において一般的な現象である。
CSコーパスの構築の応用について検討する。
タスクをもっと多くの言語に拡張することで、タスクをより現実的にします。
文レベルのマルチラベルタグ付け問題としてタスクを再構築し、より難易度の高いものにする。
論文 参考訳(メタデータ) (2024-02-02T15:38:47Z) - CRUD-RAG: A Comprehensive Chinese Benchmark for Retrieval-Augmented Generation of Large Language Models [49.16989035566899]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の能力を高める技術である。
本稿では,大規模かつ包括的なベンチマークを構築し,様々なRAGアプリケーションシナリオにおけるRAGシステムのすべてのコンポーネントを評価する。
論文 参考訳(メタデータ) (2024-01-30T14:25:32Z) - Knowledge-Augmented Large Language Models for Personalized Contextual
Query Suggestion [16.563311988191636]
我々は,Web上での検索と閲覧活動に基づいて,各ユーザを対象としたエンティティ中心の知識ストアを構築した。
この知識ストアは、公的な知識グラフ上の興味と知識のユーザ固有の集約予測のみを生成するため、軽量である。
論文 参考訳(メタデータ) (2023-11-10T01:18:47Z) - How Can Context Help? Exploring Joint Retrieval of Passage and
Personalized Context [39.334509280777425]
コンテキスト認識型文書地下会話システムの概念に触発され,コンテキスト認識型文節検索の課題が紹介される。
本稿では,パーソナライズド・コンテクスト・アウェア・サーチ(PCAS)を提案する。
論文 参考訳(メタデータ) (2023-08-26T04:49:46Z) - Uncertainty Baselines: Benchmarks for Uncertainty & Robustness in Deep
Learning [66.59455427102152]
不確実性ベースライン(Uncertainty Baselines): 各種タスクにおける標準および最先端のディープラーニング手法の高品質な実装。
各ベースラインは、簡単に再利用可能で拡張可能なコンポーネントを備えた、自己完結型の実験パイプラインである。
モデルチェックポイント、Pythonノートブックとしての実験出力、結果を比較するためのリーダーボードを提供する。
論文 参考訳(メタデータ) (2021-06-07T23:57:32Z) - Retrieval-Free Knowledge-Grounded Dialogue Response Generation with
Adapters [52.725200145600624]
軽量アダプタで事前学習した言語モデルに事前知識を注入し、検索プロセスをバイパスする KnowExpert を提案する。
実験結果から,KnowExpertは検索ベースラインと相容れない性能を示した。
論文 参考訳(メタデータ) (2021-05-13T12:33:23Z) - Larger-Context Tagging: When and Why Does It Work? [55.407651696813396]
一般的な戦略として、より大規模なコンテキストトレーニングがいつ、なぜ機能するのかを調査することに注力する。
4つのタグ付けタスクと13のデータセットに基づいてテストベッドを設定しました。
論文 参考訳(メタデータ) (2021-04-09T15:35:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。