論文の概要: Landmarks, Monuments, and Beacons: Understanding Generative Calls to Action
- arxiv url: http://arxiv.org/abs/2509.19030v1
- Date: Tue, 23 Sep 2025 14:03:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.878753
- Title: Landmarks, Monuments, and Beacons: Understanding Generative Calls to Action
- Title(参考訳): ランドマーク、モニュメント、ビーコン
- Authors: Victoire Hervé, Henrik Warpefelt, Christoph Salge,
- Abstract要約: textitLandmarks, textitMonuments, textitBeaconsのネストした概念を紹介します。
これらの用語は、アーティファクトの知覚性、エボクティヴ性、およびコール・トゥ・アクションに基づくもので、すべてプレイヤー中心の視点からである。
これらの実体は、現在研究と産業の両方で使われている技術を用いて発見および評価することができると論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithmic evaluation of procedurally generated content struggles to find metrics that align with human experience, particularly for composite artefacts. Automatic decomposition as a possible solution requires concepts that meet a range of properties. To this end, drawing on Games Studies and Game AI research, we introduce the nested concepts of \textit{Landmarks}, \textit{Monuments}, and \textit{Beacons}. These concepts are based on the artefact's perceivability, evocativeness, and Call to Action, all from a player-centric perspective. These terms are generic to games and usable across genres. We argue that these entities can be found and evaluated with techniques currently used in both research and industry, opening a path towards a fully automated decomposition of PCG, and evaluation of the salient sub-components. Although the work presented here emphasises mixed-initiative PCG and compositional PCG, we believe it applies beyond those domains. With this approach, we intend to create a connection between humanities and technical game research and allow for better computational PCG evaluation
- Abstract(参考訳): 手続き的に生成されたコンテンツのアルゴリズムによる評価は、特に複合人工物において、人間の経験と整合する指標を見つけるのに苦労する。
可能な解としての自動分解は、様々な性質を満たす概念を必要とする。
この目的のために、ゲーム研究とゲームAI研究に基づいて、ネストされた概念である \textit{Landmarks} 、 \textit{Monuments} 、 \textit{Beacons} を紹介する。
これらの概念は、アーティファクトの知覚性、エボクティヴ性、およびコール・トゥ・アクションに基づくもので、すべてプレイヤー中心の視点からである。
これらの用語はゲームに汎用的であり、ジャンルによって使用することができる。
これらの実体は、現在研究と産業の両方で使われている技術を用いて発見・評価することができ、PCGの完全自動分解への道を開き、また、有能なサブコンポーネントの評価を行うことができると論じる。
ここでは、混合開始型PCGと合成PCGを強調しているが、これらの領域を超えて適用できると考えている。
このアプローチにより、人文科学と技術ゲーム研究のつながりを作り、より良い計算PCG評価を可能にする。
関連論文リスト
- Multi-Actor Generative Artificial Intelligence as a Game Engine [49.360775442760314]
ジェネレーティブAIは、社会科学モデリングからインタラクティブな物語、AI評価に至るまで、マルチアクター環境で使用することができる。
ここでは、ゲームマスター(GM)が環境に責任を持ち、プレイヤーキャラクターの自発的な行動によって直接決定されないストーリーの全ての部分を生成できるテーブルトップロールプレイングゲーム(TTRPG)からインスピレーションを得るのが良い方法であると論じる。
論文 参考訳(メタデータ) (2025-07-10T22:31:09Z) - Towards Automatic Evaluation for Image Transcreation [52.71090829502756]
本稿では,機械翻訳(MT)メトリクスにインスパイアされた自動評価指標群を提案する。
画像トランスクリエーションの3つの重要な側面として,文化的関連性,意味的等価性,視覚的類似性を挙げる。
この結果から,視覚エンコーダの表現は視覚的類似度を測定するのに有効であるのに対し,プロプライエタリなVLMは文化的関連性と意味的等価性を最もよく認識していることがわかった。
論文 参考訳(メタデータ) (2024-12-18T10:55:58Z) - Procedural Content Generation in Games: A Survey with Insights on Emerging LLM Integration [1.03590082373586]
プロシージャコンテンツ生成(PCG)は、アルゴリズムを用いてゲームコンテンツの自動生成として定義される。
プレイヤーのエンゲージメントを高め、ゲームデザイナーの仕事を楽にする。
PCGにおけるディープラーニングアプローチの最近の進歩は、研究者や実践者がより洗練されたコンテンツを作成できるようにしている。
大規模言語モデル (LLMs) が登場し、PCGの進歩の軌跡を本当に破壊した。
論文 参考訳(メタデータ) (2024-10-21T05:10:13Z) - CoProNN: Concept-based Prototypical Nearest Neighbors for Explaining Vision Models [1.0855602842179624]
ドメインエキスパートが自然言語で直感的にコンピュータビジョンタスクのコンセプトベースの説明を素早く作成できる新しいアプローチを提案する。
CoProNNのモジュラー設計は実装が簡単で、新しいタスクに適応しやすく、分類とテキスト・トゥ・イメージ・モデルを置き換えることができる。
我々の戦略は、粗粒度画像分類タスクにおける他の概念ベースのXAIアプローチと非常によく競合し、さらに細粒度細粒度タスクにおいてそれらの手法よりも優れることを示した。
論文 参考訳(メタデータ) (2024-04-23T08:32:38Z) - Intelligent Generation of Graphical Game Assets: A Conceptual Framework
and Systematic Review of the State of the Art [1.534667887016089]
手続き的コンテンツ生成は、物語、レベル、音から木や武器まで、ゲームにおける様々なタスクに適用することができる。
本稿では,ゲーム内外の幅広いアプリケーションからの研究を通じて,グラフィカルアセット生成への最先端のアプローチについて検討する。
論文 参考訳(メタデータ) (2023-11-16T18:36:16Z) - OCAtari: Object-Centric Atari 2600 Reinforcement Learning Environments [20.034972354302788]
我々は,OCAtariの導入により,深層RLアプローチの最も有用な評価フレームワークであるAtari Learning Environmentsを拡張した。
我々のフレームワークは、オブジェクト発見、オブジェクト表現学習、およびオブジェクト中心のRLを可能にします。
論文 参考訳(メタデータ) (2023-06-14T17:28:46Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - ConsNet: Learning Consistency Graph for Zero-Shot Human-Object
Interaction Detection [101.56529337489417]
画像中のHuman, Action, Object>の形のHOIインスタンスを検出・認識することを目的としたHuman-Object Interaction (HOI) Detectionの問題点を考察する。
我々は、オブジェクト、アクション、インタラクション間の多レベルコンパレンシーは、稀な、あるいは以前には見られなかったHOIのセマンティック表現を生成するための強力な手がかりであると主張している。
提案モデルでは,人-対象のペアの視覚的特徴とHOIラベルの単語埋め込みを入力とし,それらを視覚-意味的関節埋め込み空間にマッピングし,類似度を計測して検出結果を得る。
論文 参考訳(メタデータ) (2020-08-14T09:11:18Z) - A Benchmarking Study of Embedding-based Entity Alignment for Knowledge
Graphs [30.296238600596997]
エンティティアライメントは、同じ現実世界のオブジェクトを参照する異なる知識グラフ内のエンティティを探します。
KG埋め込みの最近の進歩は、埋め込みに基づくエンティティアライメントの出現を示唆している。
我々は,最近の埋め込み型エンティティアライメントアプローチを23回調査し,その技術と特徴に基づいて分類した。
論文 参考訳(メタデータ) (2020-03-10T05:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。