論文の概要: WildVis: Open Source Visualizer for Million-Scale Chat Logs in the Wild
- arxiv url: http://arxiv.org/abs/2409.03753v2
- Date: Mon, 9 Sep 2024 10:04:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-10 13:16:17.380636
- Title: WildVis: Open Source Visualizer for Million-Scale Chat Logs in the Wild
- Title(参考訳): WildVis: 数百万のチャットログを対象とするオープンソースのビジュアライザ
- Authors: Yuntian Deng, Wenting Zhao, Jack Hessel, Xiang Ren, Claire Cardie, Yejin Choi,
- Abstract要約: 本研究では,高速,多目的,大規模会話分析が可能な対話型ツールWildVisを紹介する。
WildVisは、基準リストに基づいてテキストと埋め込みスペースの検索と視覚化機能を提供する。
誤用調査の促進,データセット間のトピック分布の可視化と比較,ユーザ固有の会話パターンの特徴付け,という3つのケーススタディを通じてWildVisの有用性を実証する。
- 参考スコア(独自算出の注目度): 88.05964311416717
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing availability of real-world conversation data offers exciting opportunities for researchers to study user-chatbot interactions. However, the sheer volume of this data makes manually examining individual conversations impractical. To overcome this challenge, we introduce WildVis, an interactive tool that enables fast, versatile, and large-scale conversation analysis. WildVis provides search and visualization capabilities in the text and embedding spaces based on a list of criteria. To manage million-scale datasets, we implemented optimizations including search index construction, embedding precomputation and compression, and caching to ensure responsive user interactions within seconds. We demonstrate WildVis' utility through three case studies: facilitating chatbot misuse research, visualizing and comparing topic distributions across datasets, and characterizing user-specific conversation patterns. WildVis is open-source and designed to be extendable, supporting additional datasets and customized search and visualization functionalities.
- Abstract(参考訳): 現実世界の会話データの増加は、研究者がユーザーとチャットボットのインタラクションを研究するエキサイティングな機会を提供する。
しかし、このデータの膨大な量は、個々の会話を手動で調べることができない。
この課題を克服するために、高速で多目的で大規模な会話分析を可能にする対話型ツールWildVisを紹介した。
WildVisは、基準リストに基づいてテキストと埋め込みスペースの検索と視覚化機能を提供する。
百万規模のデータセットを管理するため,検索インデックスの構築,事前計算と圧縮の埋め込み,キャッシュなどの最適化を行い,数秒以内に応答性のあるユーザインタラクションを保証した。
チャットボットの誤用調査の促進,データセット間のトピック分布の可視化と比較,ユーザ固有の会話パターンの特徴付け,という3つのケーススタディを通じてWildVisの有用性を実証した。
WildVisはオープンソースで、拡張可能で、追加のデータセットとカスタマイズされた検索と視覚化機能をサポートする。
関連論文リスト
- ChatSearch: a Dataset and a Generative Retrieval Model for General Conversational Image Retrieval [31.663016521987764]
オープンドメイン画像における一般会話画像検索の課題について検討する。
このタスクを進めるために、ChatSearchと呼ばれるデータセットをキュレートします。
本データセットは、ターゲット画像毎のマルチラウンド多モーダル会話コンテキストクエリを含む。
そこで我々はChatSearcherという生成的検索モデルを提案する。
論文 参考訳(メタデータ) (2024-10-24T13:19:22Z) - Automated Question Generation on Tabular Data for Conversational Data Exploration [1.2574534342156884]
本稿では,会話環境におけるデータセットの関連するスライスに基づいて,自然言語で興味深い質問を推薦するシステムを提案する。
我々は、訓練済みの言語モデル(T5)の微調整のバリエーションを使って、特定の方法で自然言語の質問を生成する。
論文 参考訳(メタデータ) (2024-07-10T08:07:05Z) - VERA: Generating Visual Explanations of Two-Dimensional Embeddings via Region Annotation [0.0]
Visual Explanations via Region (VERA) は2次元埋め込みの視覚的説明を生成する自動埋め込みアノテーション手法である。
VERAは、埋め込み空間内の異なる領域を特徴付ける情報的説明を生成し、ユーザがその埋め込み風景を一目で概観することができる。
実世界のデータセット上でのVERAの利用について説明するとともに,本手法の有効性を比較ユーザスタディで検証する。
論文 参考訳(メタデータ) (2024-06-07T10:23:03Z) - Open-Vocabulary Camouflaged Object Segmentation [66.94945066779988]
OVCOS(Open-vocabulary camouflaged Object segmentation)を導入した。
我々は11,483個の手選択画像とそれに対応するオブジェクトクラスを含む大規模複合シーンデータセット(textbfOVCamo)を構築した。
クラスセマンティック知識の指導とエッジ情報と深度情報からの視覚構造的手がかりの補足を統合することにより、提案手法は効率よくカモフラージュされたオブジェクトを捕捉できる。
論文 参考訳(メタデータ) (2023-11-19T06:00:39Z) - InViG: Benchmarking Interactive Visual Grounding with 500K Human-Robot
Interactions [23.296139146133573]
言語あいまいさ下での対話型視覚グラウンドのための大規模データセットであるinvigを提示する。
我々のデータセットは、オープンな目標指向の曖昧さの対話を伴う520K以上の画像で構成されている。
私たちの知る限りでは、Invigデータセットは、オープンエンドのインタラクティブな視覚的グラウンドを解決するための、最初の大規模データセットです。
論文 参考訳(メタデータ) (2023-10-18T17:57:05Z) - V3Det: Vast Vocabulary Visual Detection Dataset [69.50942928928052]
V3Detは巨大なボキャブラリの視覚検出データセットで、大量の画像に正確に注釈付けされたバウンディングボックスがある。
広大な探索空間を提供することで、V3Detは広大かつオープンな語彙オブジェクト検出に関する広範なベンチマークを可能にする。
論文 参考訳(メタデータ) (2023-04-07T17:45:35Z) - PRESTO: A Multilingual Dataset for Parsing Realistic Task-Oriented
Dialogs [39.58414649004708]
PRESTOは、人間と仮想アシスタント間の550万以上のコンテキスト多言語会話のデータセットである。
現実のNLUタスクで発生する問題、例えば、障害、コードスイッチング、リビジョンなどが含まれる。
我々のmT5モデルに基づくベースラインは、PRESTOに存在する会話現象をモデル化することが困難であることを示している。
論文 参考訳(メタデータ) (2023-03-15T21:51:13Z) - Using Large Language Models to Generate Engaging Captions for Data
Visualizations [51.98253121636079]
大規模言語モデル(LLM)は、高度なディープラーニング技術を用いて人間のような散文を生成する。
主な課題は、プロンプトエンジニアリングと呼ばれるLLMの最も効果的なプロンプトを設計することである。
我々は,LLM GPT-3を用いた最初の実験について報告し,いくつかの有望な結果を得た。
論文 参考訳(メタデータ) (2022-12-27T23:56:57Z) - OVIS: Open-Vocabulary Visual Instance Search via Visual-Semantic Aligned
Representation Learning [79.49199857462087]
オープン語彙ビジュアルインスタンス検索(OVIS)の課題について紹介する。
任意のテキスト検索クエリが与えられた場合、OVISは、ランク付けされたビジュアルインスタンスのリストを返すことを目的としている。
ビジュアル・セマンティック・アライメント・表現学習(ViSA)を用いて,このような検索課題に対処することを提案する。
論文 参考訳(メタデータ) (2021-08-08T18:13:53Z) - Mobile App Tasks with Iterative Feedback (MoTIF): Addressing Task
Feasibility in Interactive Visual Environments [54.405920619915655]
これまで最大数のインタラクティブ環境向けに自然言語コマンドを用いたデータセットであるMoTIF(Iterative Feedback)を用いたモバイルアプリタスクを紹介します。
MoTIFは、満足できないインタラクティブ環境のための自然言語リクエストを最初に含んでいる。
初期実現可能性分類実験を行い、より豊かな視覚言語表現の必要性を検証し、f1スコア37.3まで到達した。
論文 参考訳(メタデータ) (2021-04-17T14:48:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。