論文の概要: Across-Game Engagement Modelling via Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2409.13002v1
- Date: Thu, 19 Sep 2024 16:21:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 12:25:44.079717
- Title: Across-Game Engagement Modelling via Few-Shot Learning
- Title(参考訳): Few-Shot Learningによるゲーム間エンゲージメントモデリング
- Authors: Kosmas Pinitas, Konstantinos Makantasis, Georgios N. Yannakakis,
- Abstract要約: ドメインの一般化には、さまざまなドメインにわたるハイパフォーマンスを維持するAIモデルを学ぶことが含まれる。
ビデオゲームは、ユーザー体験の分析にユニークな課題と機会を提供する。
本稿では,ユーザエクスペリエンスの汎用ドメインに依存しないモデリングをいくつかのドメイン固有タスクとゲーム依存タスクに分解するフレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.7969777786551424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain generalisation involves learning artificial intelligence (AI) models that can maintain high performance across diverse domains within a specific task. In video games, for instance, such AI models can supposedly learn to detect player actions across different games. Despite recent advancements in AI, domain generalisation for modelling the users' experience remains largely unexplored. While video games present unique challenges and opportunities for the analysis of user experience -- due to their dynamic and rich contextual nature -- modelling such experiences is limited by generally small datasets. As a result, conventional modelling methods often struggle to bridge the domain gap between users and games due to their reliance on large labelled training data and assumptions of common distributions of user experience. In this paper, we tackle this challenge by introducing a framework that decomposes the general domain-agnostic modelling of user experience into several domain-specific and game-dependent tasks that can be solved via few-shot learning. We test our framework on a variation of the publicly available GameVibe corpus, designed specifically to test a model's ability to predict user engagement across different first-person shooter games. Our findings demonstrate the superior performance of few-shot learners over traditional modelling methods and thus showcase the potential of few-shot learning for robust experience modelling in video games and beyond.
- Abstract(参考訳): ドメインの一般化には、特定のタスク内でさまざまなドメインにわたるハイパフォーマンスを維持する人工知能(AI)モデルを学習することが含まれる。
例えばビデオゲームでは、そのようなAIモデルは異なるゲーム間でプレイヤーのアクションを検出することを学べると言われている。
近年のAIの進歩にもかかわらず、ユーザエクスペリエンスをモデル化するためのドメインの一般化は、ほとんど未検討のままである。
ビデオゲームは、ダイナミックでリッチなコンテキストの性質から、ユーザエクスペリエンスの分析にユニークな課題と機会を提供する一方で、そのようなエクスペリエンスをモデル化するのは、一般的に小さなデータセットによって制限される。
その結果、従来のモデリング手法は、大きなラベル付きトレーニングデータとユーザエクスペリエンスの共通分布の仮定に依存するため、ユーザとゲームの間のドメインギャップを埋めるのに苦労することが多い。
本稿では,ユーザエクスペリエンスの一般ドメインに依存しないモデリングを,いくつかのドメイン固有のゲーム依存タスクに分解するフレームワークを導入することで,この課題に対処する。
我々は,現在公開されているGameVibeコーパスのバリエーションを用いて,異なるファーストパーソンシューティングゲーム間でのユーザエンゲージメントを予測するモデルの能力をテストするために,このフレームワークをテストした。
本研究は,従来のモデリング手法よりも少数の学習者の方が優れた性能を示し,ビデオゲーム等における堅牢な学習体験の可能性を示した。
関連論文リスト
- AI-Spectra: A Visual Dashboard for Model Multiplicity to Enhance Informed and Transparent Decision-Making [1.860042727037436]
本稿では,対話型システムにおけるモデル多重性を活用するためのAI-Spectraを提案する。
モデル乗法とは、わずかに異なるAIモデルを使用することで、同じタスクに対して同等に有効な結果や予測が得られることを意味する。
我々は、Chernoffの顔のカスタム適応をAI-Spectra; Chernoff Botsに使用しています。
論文 参考訳(メタデータ) (2024-11-14T18:50:41Z) - Deep Generative Models in Robotics: A Survey on Learning from Multimodal Demonstrations [52.11801730860999]
近年、ロボット学習コミュニティは、大規模なデータセットの複雑さを捉えるために、深層生成モデルを使うことへの関心が高まっている。
本稿では,エネルギーベースモデル,拡散モデル,アクションバリューマップ,生成的敵ネットワークなど,コミュニティが探求してきたさまざまなモデルについて述べる。
また,情報生成から軌道生成,コスト学習に至るまで,深層生成モデルを用いた様々なアプリケーションについて述べる。
論文 参考訳(メタデータ) (2024-08-08T11:34:31Z) - Difficulty Modelling in Mobile Puzzle Games: An Empirical Study on
Different Methods to Combine Player Analytics and Simulated Data [0.0]
一般的なプラクティスは、プレイヤーとコンテンツとのインタラクションによって収集されたデータからメトリクスを作成することです。
これにより、コンテンツがリリースされた後にのみ見積が可能であり、将来のプレイヤーの特徴を考慮しない。
本稿では,そのような条件下での難易度推定の潜在的な解を多数提示する。
論文 参考訳(メタデータ) (2024-01-30T20:51:42Z) - Pre-trained Recommender Systems: A Causal Debiasing Perspective [19.712997823535066]
本研究では,異なるドメインから抽出した汎用ユーザ・イテムインタラクションデータをトレーニングすることで,ユニバーサルインタラクションパターンをキャプチャする汎用レコメンデータを開発する。
実験により,提案モデルにより,ゼロショットと少数ショットの学習環境での推薦性能が大幅に向上する可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-30T03:37:32Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Pre-training Contextualized World Models with In-the-wild Videos for
Reinforcement Learning [54.67880602409801]
本稿では,視覚制御タスクの学習を効率的に行うために,Wild 動画を多用した事前学習型世界モデルの課題について検討する。
本稿では、コンテキストと動的モデリングを明確に分離したContextualized World Models(ContextWM)を紹介する。
実験により,ContextWMを内蔵したWildビデオ事前学習は,モデルベース強化学習のサンプル効率を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-05-29T14:29:12Z) - Multi-Modal Experience Inspired AI Creation [33.34566822058209]
シーケンシャルなマルチモーダル情報に基づいてテキストを生成する方法について検討する。
まず,マルチモーダルアテンションネットワークを備えたマルチチャネルシーケンス・ツー・シーケンスアーキテクチャを設計する。
次に、逐次入力に適したカリキュラム負サンプリング戦略を提案する。
論文 参考訳(メタデータ) (2022-09-02T11:50:41Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z) - Invariant Feature Learning for Sensor-based Human Activity Recognition [11.334750079923428]
被験者やデバイス間で共有される共通情報を抽出する不変特徴学習フレームワーク(IFLF)を提案する。
実験により、IFLFは、一般的なオープンデータセットと社内データセットをまたいだ主題とデバイスディバージョンの両方を扱うのに効果的であることが示された。
論文 参考訳(メタデータ) (2020-12-14T21:56:17Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。