論文の概要: From Multimodal Perception to Strategic Reasoning: A Survey on AI-Generated Game Commentary
- arxiv url: http://arxiv.org/abs/2506.17294v2
- Date: Sat, 18 Oct 2025 08:04:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.415188
- Title: From Multimodal Perception to Strategic Reasoning: A Survey on AI-Generated Game Commentary
- Title(参考訳): マルチモーダル認識から戦略推論へ:AIによるゲーム解説に関する調査
- Authors: Qirui Zheng, Xingbo Wang, Keyuan Cheng, Muhammad Asif Ali, Yunlong Lu, Wenxin Li,
- Abstract要約: 本稿では,3つのコアコメンテータ(Live Observation, Strategic Analysis, Historical Recall)に焦点をあてた新しい分類法を提案する。
各種ゲームジャンルにおける最先端の手法,データセット,評価指標の詳細なレビューを行う。
- 参考スコア(独自算出の注目度): 9.045787191833822
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The advent of artificial intelligence has propelled AI-Generated Game Commentary (AI-GGC) into a rapidly expanding field, offering benefits such as unlimited availability and personalized narration. However, current researches in this area remain fragmented, and a comprehensive survey that systematically unifies existing efforts is still missing. To bridge this gap, our survey introduces a unified framework that systematically organizes the AI-GGC landscape. We present a novel taxonomy focused on three core commentator capabilities: Live Observation, Strategic Analysis, and Historical Recall. Commentary is further categorized into three functional types: Descriptive, Analytical, and Background. Building on this structure, we provide an in-depth review of state-of-the-art methods, datasets, and evaluation metrics across various game genres. Finally, we highlight key challenges such as real-time reasoning, multimodal integration, and evaluation bottlenecks, and outline promising directions for future research and system development in AI-GGC.
- Abstract(参考訳): 人工知能の出現により、AI-Generated Game Commentary(AI-GGC)は急速に拡大し、無制限の可用性やパーソナライズされたナレーションなどのメリットを提供している。
しかし、現在の研究は断片化されており、既存の取り組みを体系的に統一する総合的な調査はいまだに欠落している。
このギャップを埋めるために、我々の調査では、AI-GGCのランドスケープを体系的に整理する統一的なフレームワークを導入しました。
本稿では,3つのコアコメンテータ(Live Observation, Strategic Analysis, Historical Recall)に焦点をあてた新しい分類法を提案する。
注釈はさらに、記述、分析、背景の3つの機能タイプに分類される。
この構造に基づいて,様々なゲームジャンルにおける最先端の手法,データセット,評価指標の詳細なレビューを行う。
最後に、リアルタイム推論、マルチモーダル統合、評価ボトルネックといった重要な課題を強調し、AI-GGCにおける将来の研究とシステム開発のための有望な方向性を概説する。
関連論文リスト
- Enhancing Knowledge Graph Completion with Entity Neighborhood and Relation Context [12.539576594311127]
KGC-ERCは、両方のコンテキストを統合し、生成言語モデルの入力を強化し、それらの推論能力を向上するフレームワークである。
Wikidata5M、Wiki27K、FB15K-237-Nデータセットの実験は、KGC-ERCが予測性能とスケーラビリティにおいて最先端のベースラインより優れているか、あるいは一致していることを示している。
論文 参考訳(メタデータ) (2025-03-29T20:04:50Z) - A Survey on Knowledge-Oriented Retrieval-Augmented Generation [45.65542434522205]
近年,RAG (Retrieval-Augmented Generation) が注目されている。
RAGは大規模検索システムと生成モデルを組み合わせる。
動的外部知識を用いた生成モデルの強化など,RAGの重要な特徴について論じる。
論文 参考訳(メタデータ) (2025-03-11T01:59:35Z) - BabelBench: An Omni Benchmark for Code-Driven Analysis of Multimodal and Multistructured Data [61.936320820180875]
大規模言語モデル(LLM)は、様々な領域でますます重要になっている。
BabelBenchは、コード実行によるマルチモーダルなマルチ構造化データ管理におけるLLMの熟練度を評価する革新的なベンチマークフレームワークである。
BabelBenchの実験結果から,ChatGPT 4のような最先端モデルでさえ,大幅な改善の余地があることが示唆された。
論文 参考訳(メタデータ) (2024-10-01T15:11:24Z) - ACLSum: A New Dataset for Aspect-based Summarization of Scientific
Publications [10.529898520273063]
ACLSumは、ドメインの専門家によって慎重に作成され、評価される新しい要約データセットである。
以前のデータセットとは対照的に、ACLSumは科学論文のマルチアスペクト要約を容易にする。
論文 参考訳(メタデータ) (2024-03-08T13:32:01Z) - CRUD-RAG: A Comprehensive Chinese Benchmark for Retrieval-Augmented Generation of Large Language Models [49.16989035566899]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の能力を高める技術である。
本稿では,大規模かつ包括的なベンチマークを構築し,様々なRAGアプリケーションシナリオにおけるRAGシステムのすべてのコンポーネントを評価する。
論文 参考訳(メタデータ) (2024-01-30T14:25:32Z) - Retrieval-Augmented Generation for Large Language Models: A Survey [17.82361213043507]
大きな言語モデル(LLM)には印象的な能力があるが、幻覚のような課題に直面している。
Retrieval-Augmented Generation (RAG) は,外部データベースからの知識を取り入れた,有望なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-18T07:47:33Z) - Striking Gold in Advertising: Standardization and Exploration of Ad Text Generation [5.3558730908641525]
本稿では,ATG のタスクを標準化するためのベンチマークデータセット CAMERA を提案する。
我々の実験は、現状と残りの課題を示している。
また、ATGの既存の指標とLLMに基づく評価器が人間の評価とどのように一致しているかについても検討する。
論文 参考訳(メタデータ) (2023-09-21T12:51:24Z) - GENEVA: Benchmarking Generalizability for Event Argument Extraction with
Hundreds of Event Types and Argument Roles [77.05288144035056]
Event Argument extract (EAE)は、新しいイベントやドメインに対応するためのモデルの一般化性の改善に重点を置いている。
ACEやEREといった標準的なベンチマークデータセットは、40のイベントタイプと25のエンティティ中心の引数ロールをカバーする。
論文 参考訳(メタデータ) (2022-05-25T05:46:28Z) - Open Domain Question Answering over Virtual Documents: A Unified
Approach for Data and Text [62.489652395307914]
我々は、知識集約型アプリケーションのための構造化知識を符号化する手段として、Data-to-text法、すなわち、オープンドメイン質問応答(QA)を用いる。
具体的には、ウィキペディアとウィキソースの3つのテーブルを付加知識源として使用する、データとテキスト上でのオープンドメインQAのための冗長化-レトリバー・リーダー・フレームワークを提案する。
UDT-QA(Unified Data and Text QA)は,知識インデックスの拡大を効果的に活用できることを示す。
論文 参考訳(メタデータ) (2021-10-16T00:11:21Z) - GENIE: A Leaderboard for Human-in-the-Loop Evaluation of Text Generation [83.10599735938618]
リーダーボードは、評価を標準化し、独立した外部リポジトリに委譲することで、多くのNLPデータセットのモデル開発を容易にしています。
本研究では、テキスト生成タスクにリーダーボードの容易さをもたらす人間評価リーダーボードであるGENIEを紹介します。
論文 参考訳(メタデータ) (2021-01-17T00:40:47Z) - KILT: a Benchmark for Knowledge Intensive Language Tasks [102.33046195554886]
知識集約型言語タスク(KILT)のベンチマークを示す。
KILTのすべてのタスクはウィキペディアのスナップショットと同じだ。
共有密度ベクトル指数とSeq2seqモデルとの結合が強いベースラインであることが分かる。
論文 参考訳(メタデータ) (2020-09-04T15:32:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。