論文の概要: AI Literacy in Low-Resource Languages:Insights from creating AI in
Yoruba videos
- arxiv url: http://arxiv.org/abs/2403.04799v1
- Date: Tue, 5 Mar 2024 12:27:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 22:03:07.586797
- Title: AI Literacy in Low-Resource Languages:Insights from creating AI in
Yoruba videos
- Title(参考訳): ローソース言語におけるAIリテラシー:YorubaのビデオにおけるAI作成の洞察
- Authors: Wuraola Oyewusi
- Abstract要約: このケーススタディでは、ヨルバでAIビデオを作成し、配布することで、このギャップを埋めることを探る。
プロジェクトは、ストーリーテリングとアクセス可能な説明を活用する、基礎的、中間的、そして高度なAI概念をカバーする26のビデオを開発した。
これらのビデオは費用対効果のある手法で制作され、YouTube、LinkedIn、Twitterに分散し、世界22か国で視聴された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To effectively navigate the AI revolution, AI literacy is crucial. However,
content predominantly exists in dominant languages, creating a gap for
low-resource languages like Yoruba (41 million native speakers). This case
study explores bridging this gap by creating and distributing AI videos in
Yoruba.The project developed 26 videos covering foundational, intermediate, and
advanced AI concepts, leveraging storytelling and accessible explanations.
These videos were created using a cost-effective methodology and distributed
across YouTube, LinkedIn, and Twitter, reaching an estimated global audience of
22 countries. Analysis of YouTube reveals insights into viewing patterns, with
the 25-44 age group contributing the most views. Notably, over half of the
traffic originated from external sources, highlighting the potential of
cross-platform promotion.This study demonstrates the feasibility and impact of
creating AI literacy content in low-resource languages. It emphasizes that
accurate interpretation requires both technical expertise in AI and fluency in
the target language. This work contributes a replicable methodology, a 22-word
Yoruba AI vocabulary, and data-driven insights into audience demographics and
acquisition channel
- Abstract(参考訳): AI革命を効果的にナビゲートするには、AIリテラシーが不可欠だ。
しかし、コンテンツは主に支配的な言語に存在するため、Yoruba (4100万人のネイティブスピーカー)のような低リソース言語ではギャップが生じる。
このケーススタディでは,ヨルバでAIビデオを作成し,配布することで,このギャップを埋めることを検討する。このプロジェクトでは,基本的,中間的,高度なAI概念をカバーした26のビデオを開発し,ストーリーテリングとアクセシビリティな説明を活用する。
これらのビデオは費用対効果のある手法で制作され、YouTube、LinkedIn、Twitterに分散し、世界22か国で視聴された。
youtubeの分析により、視聴パターンに関する洞察が明らかになり、25~44歳のグループが最も多く視聴している。
特に、トラフィックの半分以上が外部ソースから発生しており、クロスプラットフォームのプロモーションの可能性を強調している。この研究は、低リソース言語でAIリテラシーコンテンツを作成する可能性と影響を示している。
正確な解釈には、aiの技術的専門知識と、ターゲット言語におけるフルエンシーの両方が必要であることを強調する。
この研究は、レプリケートな方法論、22ワードのYoruba AI語彙、およびオーディエンス人口と買収チャネルに対するデータ駆動的な洞察に貢献する。
関連論文リスト
- Distributed agency in second language learning and teaching through generative AI [0.0]
ChatGPTは、テキストまたは音声形式のチャットを通じて非公式な第二言語プラクティスを提供することができる。
インストラクタはAIを使って、さまざまなメディアで学習と評価材料を構築することができる。
論文 参考訳(メタデータ) (2024-03-29T14:55:40Z) - Video as the New Language for Real-World Decision Making [100.68643056416394]
ビデオデータは、言語で表現しにくい物理世界に関する重要な情報をキャプチャする。
ビデオは、インターネットの知識を吸収し、多様なタスクを表現できる統一インターフェースとして機能する。
ロボット工学、自動運転、科学といった分野における大きなインパクトの機会を特定します。
論文 参考訳(メタデータ) (2024-02-27T02:05:29Z) - Content-Localization based Neural Machine Translation for Informal
Dialectal Arabic: Spanish/French to Levantine/Gulf Arabic [5.2957928879391]
本稿では,AI能力を活用して,高リソース言語を低リソース言語/方言にローカライズするフレームワークを提案する。
私たちはスペイン語とフランス語からアラビア語の方言へ/または/から、並列翻訳データセットを提供する最初の作品です。
論文 参考訳(メタデータ) (2023-12-12T01:42:41Z) - NusaWrites: Constructing High-Quality Corpora for Underrepresented and
Extremely Low-Resource Languages [54.808217147579036]
インドネシアの地方言語について事例研究を行う。
データセット構築におけるオンラインスクラップ,人文翻訳,および母語話者による段落作成の有効性を比較した。
本研究は,母語話者による段落作成によって生成されたデータセットが,語彙的多様性と文化的内容の点で優れた品質を示すことを示す。
論文 参考訳(メタデータ) (2023-09-19T14:42:33Z) - Bootstrapping Developmental AIs: From Simple Competences to Intelligent
Human-Compatible AIs [0.0]
主流のAIアプローチは、大きな言語モデル(LLM)による生成的および深層学習アプローチと、手動で構築されたシンボリックアプローチである。
このポジションペーパーでは、開発AIの実践を拡張して、レジリエンスでインテリジェントで、人間と互換性のあるAIを作り出すための、展望、ギャップ、課題を概説する。
論文 参考訳(メタデータ) (2023-08-08T21:14:21Z) - A Video Is Worth 4096 Tokens: Verbalize Videos To Understand Them In
Zero Shot [67.00455874279383]
そこで本研究では,自然言語による記述を生成するために長編動画を音声化し,生成したストーリーの映像理解タスクを実行することを提案する。
提案手法は,ゼロショットであるにもかかわらず,ビデオ理解のための教師付きベースラインよりもはるかに優れた結果が得られる。
ストーリー理解ベンチマークの欠如を緩和するため,我々は,説得戦略の識別に関する計算社会科学における重要な課題に関する最初のデータセットを公開している。
論文 参考訳(メタデータ) (2023-05-16T19:13:11Z) - Hindi as a Second Language: Improving Visually Grounded Speech with
Semantically Similar Samples [89.16814518860357]
本研究の目的は,多言語の観点からの視覚的基盤音声モデル(VGS)の学習を検討することである。
この研究における重要な貢献は、低リソース言語の性能を向上させるために、バイリンガルな視覚的基盤を持つ音声モデルにおける高リソース言語のパワーを活用することである。
論文 参考訳(メタデータ) (2023-03-30T16:34:10Z) - Implicit and Explicit Commonsense for Multi-sentence Video Captioning [33.969215964292395]
本稿では,暗黙的(視覚言語と純粋言語)と明示的(知識ベース)のコモンセンス知識を考慮に入れた,トランスフォーマーに基づく新しいビデオキャプションモデルを提案する。
我々は,これらの形態の知識が,単独で,かつ組み合わせて,生成したキャプションの品質を高めることを示す。
論文 参考訳(メタデータ) (2023-03-14T00:19:11Z) - No Language Left Behind: Scaling Human-Centered Machine Translation [69.28110770760506]
低レベルの言語と高レベルの言語のパフォーマンスギャップを狭めるためのデータセットとモデルを作成します。
何千ものタスクをトレーニングしながらオーバーフィッティングに対処するために,複数のアーキテクチャとトレーニングの改善を提案する。
本モデルでは,従来の最先端技術と比較して,BLEUの44%の改善を実現している。
論文 参考訳(メタデータ) (2022-07-11T07:33:36Z) - AI Annotated Recommendations in an Efficient Visual Learning Environment
with Emphasis on YouTube (AI-EVL) [0.688204255655161]
我々はAI-EVLという注釈付き学習システムを構築した。
メインのYouTubeページのユーザがYouTubeビデオを閲覧し、AI-EVLシステムのユーザが同じことをすると、使用するトラフィックはずっと少なくなります。
字幕テキストに関する情報は、AIアノテートされたトピック、Wikipedia/DBpedia、インタラクティブかつビジュアルなウィジェットを通じて強化されたテキストなど、複数のレイヤに表示される。
論文 参考訳(メタデータ) (2022-03-10T18:38:52Z) - Read Like Humans: Autonomous, Bidirectional and Iterative Language
Modeling for Scene Text Recognition [80.446770909975]
言語知識はシーンのテキスト認識に非常に有益である。
エンドツーエンドのディープネットワークで言語規則を効果的にモデル化する方法はまだ研究の課題です。
シーンテキスト認識のための自律的双方向反復型ABINetを提案する。
論文 参考訳(メタデータ) (2021-03-11T06:47:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。