論文の概要: AI Annotated Recommendations in an Efficient Visual Learning Environment
with Emphasis on YouTube (AI-EVL)
- arxiv url: http://arxiv.org/abs/2203.11157v1
- Date: Thu, 10 Mar 2022 18:38:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-27 11:18:47.218521
- Title: AI Annotated Recommendations in an Efficient Visual Learning Environment
with Emphasis on YouTube (AI-EVL)
- Title(参考訳): YouTube(AI-EVL)を重視した効率的な視覚学習環境におけるAIアノテーションの提案
- Authors: Faeze Gholamrezaie, Melika Bahman-Abadi, and M. B. Ghaznavi-Ghoushchi
- Abstract要約: 我々はAI-EVLという注釈付き学習システムを構築した。
メインのYouTubeページのユーザがYouTubeビデオを閲覧し、AI-EVLシステムのユーザが同じことをすると、使用するトラフィックはずっと少なくなります。
字幕テキストに関する情報は、AIアノテートされたトピック、Wikipedia/DBpedia、インタラクティブかつビジュアルなウィジェットを通じて強化されたテキストなど、複数のレイヤに表示される。
- 参考スコア(独自算出の注目度): 0.688204255655161
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this article, we create a system called AI-EVL. This is an annotated-based
learning system. We extend AI to learning experience. If a user from the main
YouTube page browses YouTube videos and a user from the AI-EVL system does the
same, the amount of traffic used will be much less. It is due to ignoring
unwanted contents which indicates a reduction in bandwidth usage too. This
system is designed to be embedded with online learning tools and platforms to
enrich their curriculum. In evaluating the system using Google 2020 trend data,
we were able to extract rich ontological information for each data. Of the data
collected, 34.86% belong to wolfram, 30.41% to DBpedia, and 34.73% to
Wikipedia. The video subtitle information is displayed interactively and
functionally to the user over time as the video is played. This effective
visual learning system, due to the unique features, prevents the user's
distraction and makes learning more focused. The information about the subtitle
text is displayed in multiple layers including AI-annotated topics,
Wikipedia/DBpedia, and Wolfram enriched texts via interactive and visual
widgets.
- Abstract(参考訳): 本稿では,AI-EVLと呼ばれるシステムについて述べる。
これは注釈付き学習システムである。
AIを学習経験に拡張します。
メインのYouTubeページのユーザがYouTubeビデオを閲覧し、AI-EVLシステムのユーザが同じことをすると、使用するトラフィックはずっと少なくなります。
帯域幅の削減を示す望ましくないコンテンツを無視しているためである。
このシステムは、カリキュラムを充実させるために、オンライン学習ツールやプラットフォームを組み込むように設計されている。
Google 2020トレンドデータを用いたシステム評価では,各データから豊富なオントロジ情報を抽出することができた。
収集されたデータのうち34.86%はWolfram、30.41%はDBpedia、34.73%はWikipediaに属する。
ビデオ字幕情報は、再生中にユーザに対してインタラクティブかつ機能的に表示される。
この効果的な視覚学習システムは、ユニークな特徴のため、ユーザの注意をそらさず、学習をより集中させる。
字幕テキストに関する情報は、AIアノテートされたトピック、Wikipedia/DBpedia、インタラクティブかつビジュアルなウィジェットを通じて強化されたテキストなど、複数のレイヤに表示される。
関連論文リスト
- AI Literacy in Low-Resource Languages:Insights from creating AI in
Yoruba videos [0.0]
このケーススタディでは、ヨルバでAIビデオを作成し、配布することで、このギャップを埋めることを探る。
プロジェクトは、ストーリーテリングとアクセス可能な説明を活用する、基礎的、中間的、そして高度なAI概念をカバーする26のビデオを開発した。
これらのビデオは費用対効果のある手法で制作され、YouTube、LinkedIn、Twitterに分散し、世界22か国で視聴された。
論文 参考訳(メタデータ) (2024-03-05T12:27:28Z) - Brief Introduction to Contrastive Learning Pretext Tasks for Visual
Representation [0.0]
教師なし学習手法のサブセットであるコントラスト学習を導入する。
対照的な学習の目的は、互いに近くにある同じサンプルから強化されたサンプルを埋め込んで、そうでないサンプルを押し下げることである。
我々は、最近公開されたコントラスト学習の戦略をいくつか提示し、視覚表現のためのプレテキストタスクに焦点を当てている。
論文 参考訳(メタデータ) (2022-10-06T18:54:10Z) - Learning Transferable Spatiotemporal Representations from Natural Script
Knowledge [65.40899722211726]
本稿では,ASR(TVTS)のためのビデオトランスクリプト(Turning to Video Transcript for ASR)を提案する。
この利点により、我々のモデルは人間のように起きていることを文脈化し、現実世界の大規模未計算ビデオデータにシームレスに適用することができる。
論文 参考訳(メタデータ) (2022-09-30T07:39:48Z) - Audio-visual Generalised Zero-shot Learning with Cross-modal Attention
and Language [38.02396786726476]
マルチモーダル・アテンションを用いて音声・視覚データからマルチモーダル・表現を学習することを提案する。
一般化された音声視覚ゼロショット学習設定では、テスト時間検索空間にすべてのトレーニングクラスを含める。
この領域に統一的なベンチマークがないため、3つのオーディオ視覚データセットに(一般化された)ゼロショット学習ベンチマークを導入する。
論文 参考訳(メタデータ) (2022-03-07T18:52:13Z) - Video-Text Pre-training with Learned Regions [59.30893505895156]
Video-Textプレトレーニングは、大規模なビデオテキストペアから転送可能な表現を学ぶことを目的としている。
本研究では,大規模ビデオテキストペアの事前学習において,対象物の構造を考慮に入れたビデオテキスト学習用モジュール「RereaLearner」を提案する。
論文 参考訳(メタデータ) (2021-12-02T13:06:53Z) - TrUMAn: Trope Understanding in Movies and Animations [19.80173687261055]
本稿では,新しい概念モジュールを備えたTrUStデータセットを提案する。
TrUStは、潜伏した空間でビデオストーリーテリングを行うことで、ビデオエンコーダをガイドする。
実験の結果,既存のタスクにおける最先端学習システムは生の入力信号で12.01%の精度しか達成できないことがわかった。
論文 参考訳(メタデータ) (2021-08-10T09:34:14Z) - VidLanKD: Improving Language Understanding via Video-Distilled Knowledge
Transfer [76.3906723777229]
言語理解を改善するためのビデオ言語知識蒸留法VidLanKDを提案する。
我々は、ビデオテキストデータセット上でマルチモーダル教師モデルを訓練し、その知識をテキストデータセットを用いて学生言語モデルに伝達する。
我々の実験では、VidLanKDはテキストのみの言語モデルや発声モデルよりも一貫した改善を実現している。
論文 参考訳(メタデータ) (2021-07-06T15:41:32Z) - Watch and Learn: Mapping Language and Noisy Real-world Videos with
Self-supervision [54.73758942064708]
我々は、明示的なアノテーションを使わずに、文章と騒々しいビデオスニペットのマッピングを学習することで、視覚と自然言語を理解するように機械に教える。
トレーニングと評価のために、多数のオンラインビデオとサブタイトルを含む新しいデータセットApartmenTourをコントリビュートする。
論文 参考訳(メタデータ) (2020-11-19T03:43:56Z) - ALICE: Active Learning with Contrastive Natural Language Explanations [69.03658685761538]
本研究では,学習におけるデータ効率を向上させるために,AlICEを用いたアクティブラーニングを提案する。
ALICEは、まずアクティブラーニングを使用して、最も情報に富んだラベルクラスを選択し、対照的な自然言語の説明を引き出す。
意味的に抽出された知識を用いて、これらの説明から知識を抽出する。
論文 参考訳(メタデータ) (2020-09-22T01:02:07Z) - Object Relational Graph with Teacher-Recommended Learning for Video
Captioning [92.48299156867664]
本稿では,新しいモデルと効果的なトレーニング戦略の両方を含む完全なビデオキャプションシステムを提案する。
具体的には,オブジェクトリレーショナルグラフ(ORG)に基づくエンコーダを提案する。
一方,教師推薦学習(TRL)手法を設計し,成功した外部言語モデル(ELM)をフル活用し,豊富な言語知識をキャプションモデルに統合する。
論文 参考訳(メタデータ) (2020-02-26T15:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。