論文の概要: Using Interaction Data to Predict Engagement with Interactive Media
- arxiv url: http://arxiv.org/abs/2108.01949v1
- Date: Wed, 4 Aug 2021 10:28:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-05 13:07:10.986814
- Title: Using Interaction Data to Predict Engagement with Interactive Media
- Title(参考訳): インタラクションデータを用いたインタラクティブメディアによるエンゲージメント予測
- Authors: Jonathan Carlton, Andy Brown, Caroline Jay, and John Keane
- Abstract要約: 本稿では,対話型テレビ番組とのインタラクションから得られたデータを用いて,エンゲージメントのモデル化と予測を行う。
経験とイベント間の間隔に費やされた時間を含む時間的メトリクスが、エンゲージメントの予測であることがわかった。
- 参考スコア(独自算出の注目度): 8.35844047176969
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Media is evolving from traditional linear narratives to personalised
experiences, where control over information (or how it is presented) is given
to individual audience members. Measuring and understanding audience engagement
with this media is important in at least two ways: (1) a post-hoc understanding
of how engaged audiences are with the content will help production teams learn
from experience and improve future productions; (2), this type of media has
potential for real-time measures of engagement to be used to enhance the user
experience by adapting content on-the-fly. Engagement is typically measured by
asking samples of users to self-report, which is time consuming and expensive.
In some domains, however, interaction data have been used to infer engagement.
Fortuitously, the nature of interactive media facilitates a much richer set of
interaction data than traditional media; our research aims to understand if
these data can be used to infer audience engagement. In this paper, we report a
study using data captured from audience interactions with an interactive TV
show to model and predict engagement. We find that temporal metrics, including
overall time spent on the experience and the interval between events, are
predictive of engagement. The results demonstrate that interaction data can be
used to infer users' engagement during and after an experience, and the
proposed techniques are relevant to better understand audience preference and
responses.
- Abstract(参考訳): メディアは従来の線形物語からパーソナライズされた体験へと進化し、個々のオーディエンスメンバーに情報(またはそれがどのように提示されるか)を制御する。
このメディアによる観客エンゲージメントの計測と理解は,(1)コンテンツにエンゲージメントがどのように関与しているかのポストホックな理解が,プロダクションチームが経験から学び,将来のプロダクションを改善するのに役立つこと,(2)コンテンツオンザフライで適応することでユーザエクスペリエンスを高めるために,リアルタイムなエンゲージメント尺度が使用される可能性があること,の2つの点で重要である。
エンゲージメントは通常、ユーザのサンプルに自己報告を求めることで測定される。
しかし、いくつかのドメインでは、相互作用データはエンゲージメントを推測するために使われてきた。
幸いなことに、インタラクティブメディアの性質は、従来のメディアよりもずっとリッチなインタラクションデータを容易にします。
本稿では,対話型テレビ番組とのインタラクションから得られたデータを用いて,エンゲージメントのモデル化と予測を行う。
経験とイベント間の間隔に費やされた時間を含む時間的メトリクスが、エンゲージメントの予測であることがわかった。
その結果,対話データを用いて体験の前後におけるユーザのエンゲージメントを推測し,提案手法がユーザの好みや反応をよりよく理解する上で有効であることが示された。
関連論文リスト
- Learning from Emotions, Demographic Information and Implicit User
Feedback in Task-Oriented Document-Grounded Dialogues [59.516187851808375]
FEDIは、人口統計情報、ユーザ感情、暗黙のフィードバックを付加したタスク指向文書地上対話のための最初の英語対話データセットである。
FLAN-T5, GPT-2, LLaMA-2 を用いて行った実験から,これらのデータにより,タスク完了と実際の応答の整合性,ユーザの受容性が改善される可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-17T14:52:26Z) - MMOE: Mixture of Multimodal Interaction Experts [115.20477067767399]
MMOEはマルチモーダルインタラクションの専門家の混在を指す。
本手法は, ラベルのないマルチモーダルデータセットから, 対話タイプによって自動的にデータポイントを分類し, それぞれのインタラクションに特化モデルを用いる。
実験結果から,本手法は,これらの課題のあるインタラクションのパフォーマンスを10%以上向上させ,皮肉な予測などのタスクに対して全体の2%向上をもたらす。
論文 参考訳(メタデータ) (2023-11-16T05:31:21Z) - Organized Event Participant Prediction Enhanced by Social Media
Retweeting Data [8.675064911866201]
本稿では、ソーシャルメディアのリツイート活動データを利用して、イベント参加者予測モデルの学習を強化することを提案する。
実世界データを用いた総合的な実験を2つのシナリオで実施する。
論文 参考訳(メタデータ) (2023-10-02T04:26:07Z) - Identification, Impacts, and Opportunities of Three Common Measurement
Considerations when using Digital Trace Data [2.1301560294088318]
スクリーンミクスは、人々がモバイルデバイスと対話するときに得られる個々のスクリーンショットの粒度でメディアの使用を記録する。
1)要約の絡み合い - フォーマットへの露出によってコンテンツへの露出をプロキシすることで生じる一般的な測定誤差、(2)平ら化 - 時間情報を組み込まずにメディアインタラクションのユニークなセグメントを集約する、(3)バンドル。
論文 参考訳(メタデータ) (2023-09-30T00:28:19Z) - Multimodal Learning Without Labeled Multimodal Data: Guarantees and
Applications [97.79283975518047]
複数のモーダルから共同で学習する多くの機械学習システムでは、マルチモーダル相互作用の性質を理解することが中心的な研究課題である。
我々は,この相互作用定量化の課題について,ラベル付き単調データのみを用いた半教師付き環境で検討する。
相互作用の正確な情報理論的定義を用いて、我々の重要な貢献は、マルチモーダル相互作用の量を定量化するための下界と上界の導出である。
論文 参考訳(メタデータ) (2023-06-07T15:44:53Z) - Do I Have Your Attention: A Large Scale Engagement Prediction Dataset
and Baselines [9.896915478880635]
「機械と対話しながら個人によって表される集中、熱意、楽観、情熱の度合いをユーザエンゲージメントと呼ぶ。」
現実の環境で動作可能なエンゲージメント予測システムを構築するためには、リッチで多様なデータセットから学ぶことが不可欠である。
野生データセットEngageNetにおける大規模多面的エンゲージメントを提案する。
論文 参考訳(メタデータ) (2023-02-01T13:25:54Z) - Fair Effect Attribution in Parallel Online Experiments [57.13281584606437]
A/Bテストは、オンラインサービスで導入された変更の影響を確実に特定する目的で役立ちます。
オンラインプラットフォームでは,ユーザトラフィックをランダムに分割して多数の同時実験を行うのが一般的である。
異なるグループ間の完全なランダム化にもかかわらず、同時実験は互いに相互作用し、平均的な集団の結果に負の影響をもたらす。
論文 参考訳(メタデータ) (2022-10-15T17:15:51Z) - User Interaction Analysis through Contrasting Websites Experience [4.14955672190455]
本研究では,Webサイトの利用状況と関連性に基づいて,Webサイトのユーザビリティを定量的に分析する。
我々は,ユーザインタラクションに基づく主観的知覚,視線追跡データ,表情を報告する。
一般に、ユーザインタラクションパラメータはウェブサイトセット間で大きく異なることが判明した。
論文 参考訳(メタデータ) (2022-01-10T20:43:19Z) - Perceptual Score: What Data Modalities Does Your Model Perceive? [73.75255606437808]
モデルが入力特徴の異なる部分集合に依存する度合いを評価する指標である知覚スコアを導入する。
近年,視覚的質問応答に対するマルチモーダルモデルでは,前者よりも視覚的データを知覚しにくい傾向がみられた。
知覚スコアを使用することで、スコアをデータサブセットのコントリビューションに分解することで、モデルのバイアスを分析することもできる。
論文 参考訳(メタデータ) (2021-10-27T12:19:56Z) - How-to Present News on Social Media: A Causal Analysis of Editing News
Headlines for Boosting User Engagement [14.829079057399838]
我々は,メディアの現在の実践をデータ駆動アプローチを用いて分析する。
8つのメディアが共有するオリジナルニュース記事とそれに対応するつぶやきの並列コーパスを構築します。
そして、これらのメディアがオリジナルの見出しに対してツイートを編集し、そうした変化の影響について検討する。
論文 参考訳(メタデータ) (2020-09-17T06:39:49Z) - Human Trajectory Forecasting in Crowds: A Deep Learning Perspective [89.4600982169]
本稿では,既存の深層学習に基づくソーシャルインタラクションのモデル化手法について詳細に分析する。
本稿では、これらの社会的相互作用を効果的に捉えるための知識に基づく2つのデータ駆動手法を提案する。
我々は,人間の軌道予測分野において,重要かつ欠落したコンポーネントであるTrajNet++を大規模に開発する。
論文 参考訳(メタデータ) (2020-07-07T17:19:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。