論文の概要: Identifying tourist destinations from movie scenes using Deep Learning
- arxiv url: http://arxiv.org/abs/2312.00098v1
- Date: Thu, 30 Nov 2023 14:09:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-04 17:01:48.574800
- Title: Identifying tourist destinations from movie scenes using Deep Learning
- Title(参考訳): 深層学習による映画シーンからの観光地識別
- Authors: Mahendran Narayanan
- Abstract要約: 本稿では,映画に登場する観光地を識別する手法を提案する。
映画視聴中にこれらの位置を認識できる深層学習モデルの開発を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Movies wield significant influence in our lives, playing a pivotal role in
the tourism industry of any country. The inclusion of picturesque landscapes,
waterfalls, and mountains as backdrops in films serves to enhance the allure of
specific scenarios. Recognizing the impact of movies on tourism, this paper
introduces a method for identifying tourist destinations featured in films. We
propose the development of a deep learning model capable of recognizing these
locations during movie viewing. The model is trained on a dataset comprising
major tourism destinations worldwide. Through this research, the goal is to
enable viewers to identify the real-world locations depicted in movie scenes,
offering a novel way to connect cinema with global travel experiences.
- Abstract(参考訳): 映画は私たちの生活に大きな影響を与え、どの国の観光産業でも重要な役割を果たした。
風景画、滝、山々を背景として映画に取り入れることは、特定のシナリオの魅力を高めるのに役立つ。
本稿では,映画が観光に与える影響を認識し,映画に特徴付けられる観光地を識別する手法を提案する。
映画視聴中にこれらの位置を認識可能な深層学習モデルの開発を提案する。
モデルは、世界中の主要な観光地からなるデータセットでトレーニングされる。
この研究を通じて、視聴者は映画シーンで描かれた現実世界の場所を識別し、映画とグローバルな旅行体験を結びつける新しい方法を提供する。
関連論文リスト
- Socioeconomic factors of national representation in the global film festival circuit: skewed toward the large and wealthy, but small countries can beat the odds [0.0]
本研究では,グローバル・フィルム・フェスティバル・サーキットにおいて,各国の経済・人口・地理的要因がどのように表現されるかを分析する。
カンヌ映画市場からのフェスティバルプログラミング情報を含む、いくつかのオープンアクセスデータベースの組み合わせに依存している。
このデータセットは、世界中の約600のフェスティバルから10年間に2万本以上のユニークな映画で構成されており、合計で3万本以上の映画祭のエントリーがある。
論文 参考訳(メタデータ) (2024-07-15T14:31:23Z) - Movie101v2: Improved Movie Narration Benchmark [53.54176725112229]
映像の自動ナレーションは、視覚障害者を支援するために、映像に合わせたプロット記述を生成することを目的としている。
映画ナレーションに特化して設計されたデータ品質を向上した大規模バイリンガルデータセットであるMovie101v2を紹介する。
新しいベンチマークに基づいて,GPT-4Vを含む多数の視覚言語モデルをベースライン化し,ナレーション生成における課題の詳細な分析を行う。
論文 参考訳(メタデータ) (2024-04-20T13:15:27Z) - Visual Objectification in Films: Towards a New AI Task for Video
Interpretation [1.485535845286263]
本稿では,映画におけるキャラクタの客観化を検知する新しい映像解釈タスクを提案する。
本研究の目的は、映画で操作される複雑な時間パターンを明確化し、定量化し、客観化の認知的知覚を生み出すことである。
論文 参考訳(メタデータ) (2024-01-24T08:35:29Z) - Knowledge-enhanced Multi-perspective Video Representation Learning for
Scene Recognition [33.800842679024164]
我々は,映像シーン認識の課題に対処し,高レベルの映像表現を学習して映像シーンを分類することを目的とする。
既存の作品の多くは、時間的視点で視覚情報やテキスト情報のみからビデオのシーンを識別している。
複数の視点から映像表現をモデル化する新しい2ストリームフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-09T04:37:10Z) - Forecasting Inter-Destination Tourism Flow via a Hybrid Deep Learning
Model [7.769537533798236]
ITF(Inter-Destination Tourism Flow, Inter-Destination Tourism Flow)は、目的地の役割の分類や訪問パターンのマイニングといった業務における観光管理に一般的に用いられている。
ITFの体積がマルチトラクションシステムの特徴にどのように影響されているかを理解するのは難しい。
ITF予測のためのグラフベースハイブリッドディープラーニングモデルを提案する。
論文 参考訳(メタデータ) (2023-05-05T03:48:12Z) - Film Trailer Generation via Task Decomposition [65.16768855902268]
私たちは映画をグラフとしてモデル化し、ノードはショットであり、エッジはそれらの間のセマンティックな関係を表す。
スクリーンプレイから特権的テキスト情報を活用する共同コントラストトレーニングを用いて,これらの関係を学習する。
教師なしのアルゴリズムがグラフを横切り、人間の審査員が競争的な教師付きアプローチによって生成されるトレーラーを生成する。
論文 参考訳(メタデータ) (2021-11-16T20:50:52Z) - Rapid Exploration for Open-World Navigation with Latent Goal Models [78.45339342966196]
多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習された潜在変数モデルである。
学習方針を規則化するために情報ボトルネックを使用し、(i)目標のコンパクトな視覚的表現、(ii)一般化能力の向上、(iii)探索のための実行可能な目標をサンプリングするためのメカニズムを提供する。
論文 参考訳(メタデータ) (2021-04-12T23:14:41Z) - Movie Summarization via Sparse Graph Construction [65.16768855902268]
マルチモーダル情報を用いて構築された,シーン間の関係を表すスパースなムービーグラフを構築することで,TPシーンを識別するモデルを提案する。
人間の判断によれば、我々のアプローチによって作成された要約は、シーケンスベースモデルや汎用的な要約アルゴリズムの出力よりも、より情報的で完全であり、より高い評価を受けている。
論文 参考訳(メタデータ) (2020-12-14T13:54:34Z) - Condensed Movies: Story Based Retrieval with Contextual Embeddings [83.73479493450009]
我々は3K映画の主要シーンからなるコンデンサド映画データセット(CMD)を作成する。
データセットはスケーラブルで、YouTubeから自動的に取得され、誰でもダウンロードして利用できる。
我々は、文字、音声、視覚的手がかりを1つのビデオ埋め込みに組み合わせ、データセット上でテキストからビデオまでを検索するためのディープネットワークベースラインを提供する。
論文 参考訳(メタデータ) (2020-05-08T17:55:03Z) - A Local-to-Global Approach to Multi-modal Movie Scene Segmentation [95.34033481442353]
我々は、150本の映画から21Kの注釈付きシーンセグメントを含む大規模なビデオデータセット、MovieScenesを構築した。
本稿では,クリップ,セグメント,映画の3段階にわたるマルチモーダル情報を統合するローカル・グローバルシーンセグメンテーションフレームワークを提案する。
実験の結果,提案するネットワークは,映画を高い精度でシーンに分割し,従来手法より一貫した性能を発揮することがわかった。
論文 参考訳(メタデータ) (2020-04-06T13:58:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。