論文の概要: Information Seeking in the Spirit of Learning: a Dataset for
Conversational Curiosity
- arxiv url: http://arxiv.org/abs/2005.00172v2
- Date: Tue, 10 Nov 2020 02:09:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 23:37:55.239808
- Title: Information Seeking in the Spirit of Learning: a Dataset for
Conversational Curiosity
- Title(参考訳): 学習精神における情報探索 : 会話の好奇心のためのデータセット
- Authors: Pedro Rodriguez, Paul Crook, Seungwhan Moon, Zhiguang Wang
- Abstract要約: 我々は、ユーザが知っていることに関連する事実を提示されると、エンゲージメントが増加するという仮説をテストするウィザード・オブ・オズ・ダイアログタスクを設計する。
ユーザとアシスタントが地理的話題について会話する14Kダイアログ(181K発声)を収集・リリースする。
このデータセットには、既存のユーザ知識、メッセージレベルのダイアログアクション、ウィキペディアへの接地、メッセージに対するユーザ反応が注釈付けされている。
- 参考スコア(独自算出の注目度): 10.409312809724458
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Open-ended human learning and information-seeking are increasingly mediated
by digital assistants. However, such systems often ignore the user's
pre-existing knowledge. Assuming a correlation between engagement and user
responses such as "liking" messages or asking followup questions, we design a
Wizard-of-Oz dialog task that tests the hypothesis that engagement increases
when users are presented with facts related to what they know. Through
crowd-sourcing of this experiment, we collect and release 14K dialogs (181K
utterances) where users and assistants converse about geographic topics like
geopolitical entities and locations. This dataset is annotated with
pre-existing user knowledge, message-level dialog acts, grounding to Wikipedia,
and user reactions to messages. Responses using a user's prior knowledge
increase engagement. We incorporate this knowledge into a multi-task model that
reproduces human assistant policies and improves over a BERT content model by
13 mean reciprocal rank points.
- Abstract(参考訳): オープンエンドの人間学習と情報検索は、デジタルアシスタントによって媒介されるようになっている。
しかし、そのようなシステムはユーザの既存の知識を無視することが多い。
メッセージの“ライキング”やフォローアップ質問といったユーザ応答とエンゲージメントの相関を仮定し,ユーザが知っている事実を提示すると,エンゲージメントが増加するという仮説を検証したWizard-of-Ozダイアログタスクを設計する。
この実験のクラウドソーシングを通じて、ユーザとアシスタントが地理的実体や場所といった地理的トピックについて会話する14Kダイアログ(181K発声)を収集し、リリースする。
このデータセットには、既存のユーザ知識、メッセージレベルのダイアログ、wikipediaへの接地、メッセージに対するユーザの反応が注釈されている。
ユーザの事前知識を使用した応答は、エンゲージメントを高める。
この知識をマルチタスクモデルに組み込んで,人間のアシスタントポリシを再現し,13個の相互ランクポイントでbertコンテンツモデルに対して改善する。
関連論文リスト
- Into the Unknown Unknowns: Engaged Human Learning through Participation in Language Model Agent Conversations [8.848859080368799]
協調的なSTORMは、複数のLMエージェント間の会話を観察し、管理することを可能にする。
エージェントはユーザの代理として質問を行い、未知の未知をセレンディピティーに発見する。
自動評価のために,実際の情報検索記録をユーザ目標として収集し,WildSeekデータセットを構築する。
論文 参考訳(メタデータ) (2024-08-27T17:50:03Z) - NewsDialogues: Towards Proactive News Grounded Conversation [72.10055780635625]
本稿では,対話システムがニュースの重要な話題に基づいて会話を積極的にリードする新しいタスク,Proactive News Grounded Conversationを提案する。
この課題をさらに発展させるために、人間と人間の対話データセットtsNewsDialoguesを収集し、合計14.6Kの発話を含む1Kの会話を含む。
論文 参考訳(メタデータ) (2023-08-12T08:33:42Z) - Let's Get Personal: Personal Questions Improve SocialBot Performance in
the Alexa Prize [0.0]
音声対話コミュニティにおいて,対話型オープンドメイン対話システムの構築に焦点が当てられている。
従来の対話システムとは異なり、これらの対話システムは特定の情報やドメインの制限を前提とすることはできない。
我々は、Amazon Echoユーザーが大規模にアクセスし、評価する、堅牢なオープンドメイン会話システムであるAthenaを開発した。
論文 参考訳(メタデータ) (2023-03-09T00:10:29Z) - KPT: Keyword-guided Pre-training for Grounded Dialog Generation [82.68787152707455]
KPT(Guided Pre-Training)は,グラウンドドダイアログ生成のための自己教師付き事前学習手法である。
具体的には、事前訓練された言語モデルを用いて、ダイアログ内の最も不確実なトークンをキーワードとして抽出する。
我々は,対話行為,知識グラフ,ペルソナ記述,ウィキペディアの文節など,数発の知識ベース生成タスクについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-12-04T04:05:01Z) - Knowledge-Grounded Conversational Data Augmentation with Generative
Conversational Networks [76.11480953550013]
生成会話ネットワークを用いて会話データを自動的に生成する。
我々は、Topical Chatデータセット上で、知識のない会話に対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-22T22:37:14Z) - Learning as Conversation: Dialogue Systems Reinforced for Information
Acquisition [30.91417206129677]
本稿では,AIを活用した新しいチャットボットを提案する。
情報獲得指向対話システムでは,ドメイン内対話データなしで様々なドメインにシステム転送できるように,強化されたセルフプレイの新たな適応が採用されている。
論文 参考訳(メタデータ) (2022-05-29T19:42:25Z) - KETOD: Knowledge-Enriched Task-Oriented Dialogue [77.59814785157877]
対話システム研究における既存の研究は、主にタスク指向の対話とチャットを独立したドメインとして扱う。
本研究では,タスク指向対話と知識ベースチップチャットを一つのモデルに効果的に統合する方法について検討する。
論文 参考訳(メタデータ) (2022-05-11T16:01:03Z) - There Are a Thousand Hamlets in a Thousand People's Eyes: Enhancing
Knowledge-grounded Dialogue with Personal Memory [67.24942840683904]
知識に基づく会話における知識選択に個人記憶を導入する。
本研究では,個人記憶から知識への前方マッピングと,その逆マッピングを閉ループに含める学習手法を提案する。
実験の結果,提案手法は自動評価と人的評価の両方において既存のKGC法よりも優れていた。
論文 参考訳(メタデータ) (2022-04-06T07:06:37Z) - Multi-Sentence Knowledge Selection in Open-Domain Dialogue [11.936691632841388]
オープンドメイン会話知識選択の現況を評価する。
We create a augmented dataset based on the Wizard of Wikipedia (WOW) corpus。
WOW++は、対話コンテキストごとに8つの関連する知識文を平均化する。
論文 参考訳(メタデータ) (2022-03-01T22:07:05Z) - Call for Customized Conversation: Customized Conversation Grounding
Persona and Knowledge [25.378474996192438]
ユーザのペルソナとウィキペディアの知識によって、カスタマイズされた回答が構築される、カスタマイズされた会話データセットのためのコールを導入する。
事前学習した言語モデルの情報的およびカスタマイズされた発話を行う能力を評価する。
論文 参考訳(メタデータ) (2021-12-16T04:44:27Z) - IART: Intent-aware Response Ranking with Transformers in
Information-seeking Conversation Systems [80.0781718687327]
我々は、情報探索会話におけるユーザ意図パターンを分析し、意図認識型ニューラルレスポンスランキングモデル「IART」を提案する。
IARTは、ユーザ意図モデリングと言語表現学習とTransformerアーキテクチャの統合の上に構築されている。
論文 参考訳(メタデータ) (2020-02-03T05:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。