論文の概要: BBC-Oxford British Sign Language Dataset
- arxiv url: http://arxiv.org/abs/2111.03635v1
- Date: Fri, 5 Nov 2021 17:35:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-08 15:50:39.047031
- Title: BBC-Oxford British Sign Language Dataset
- Title(参考訳): bbc-オックスフォード英国手話データセット
- Authors: Samuel Albanie, G\"ul Varol, Liliane Momeni, Hannah Bull,
Triantafyllos Afouras, Himel Chowdhury, Neil Fox, Bencie Woll, Rob Cooper,
Andrew McParland, Andrew Zisserman
- Abstract要約: 我々は,British Sign Language (BSL) の大規模ビデオコレクションである BBC-Oxford British Sign Language (BOBSL) データセットを紹介する。
データセットのモチベーションと統計、利用可能なアノテーションについて説明する。
我々は、手話認識、手話アライメント、手話翻訳のタスクのベースラインを提供する実験を行う。
- 参考スコア(独自算出の注目度): 64.32108826673183
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we introduce the BBC-Oxford British Sign Language (BOBSL)
dataset, a large-scale video collection of British Sign Language (BSL). BOBSL
is an extended and publicly released dataset based on the BSL-1K dataset
introduced in previous work. We describe the motivation for the dataset,
together with statistics and available annotations. We conduct experiments to
provide baselines for the tasks of sign recognition, sign language alignment,
and sign language translation. Finally, we describe several strengths and
limitations of the data from the perspectives of machine learning and
linguistics, note sources of bias present in the dataset, and discuss potential
applications of BOBSL in the context of sign language technology. The dataset
is available at https://www.robots.ox.ac.uk/~vgg/data/bobsl/.
- Abstract(参考訳): 本稿では,BBC-Oxford British Sign Language (BOBSL)データセットを紹介する。
BOBSLはBSL-1Kデータセットに基づいた拡張および公開データセットである。
データセットのモチベーションと統計、利用可能なアノテーションについて説明する。
我々は,手話認識,手話アライメント,手話翻訳のタスクのベースラインを提供する実験を行う。
最後に,機械学習や言語学の観点からのデータの強みと限界,データセットに存在するバイアスの注記,手話技術の文脈におけるbobslの可能性について論じる。
データセットはhttps://www.robots.ox.ac.uk/~vgg/data/bobsl/で入手できる。
関連論文リスト
- SCOPE: Sign Language Contextual Processing with Embedding from LLMs [49.5629738637893]
世界中の約7000万人の聴覚障害者が使用する手話は、視覚的および文脈的な情報を伝える視覚言語である。
視覚に基づく手話認識(SLR)と翻訳(SLT)の現在の手法は、限られたデータセットの多様性と文脈に関連のある情報の無視により、対話シーンに苦慮している。
SCOPEは、コンテキスト認識型ビジョンベースSLRおよびSLTフレームワークである。
論文 参考訳(メタデータ) (2024-09-02T08:56:12Z) - BdSLW60: A Word-Level Bangla Sign Language Dataset [3.8631510994883254]
我々は、制約のない自然な設定で、BdSLW60という名前の包括的BdSLワードレベルデータセットを作成します。
データセットには60のBangla手話が含まれており、18人の手話専門家が手話専門家の監督の下で提供した9307のビデオトライアルがかなりの規模で提供されている。
本稿では,SVM(Support Vector Machine)を用いたBdSLW60データセットのベンチマーク結果について報告する。
論文 参考訳(メタデータ) (2024-02-13T18:02:58Z) - Robotic Skill Acquisition via Instruction Augmentation with
Vision-Language Models [70.82705830137708]
言語条件制御のためのデータ駆動型インストラクション拡張(DIAL)について紹介する。
我々は,CLIPのセマンティック理解を利用したセミ言語ラベルを用いて,未知の実演データの大規模なデータセットに知識を伝達する。
DIALは、模倣学習ポリシーによって、新しい能力を獲得し、元のデータセットにない60の新しい命令を一般化することができる。
論文 参考訳(メタデータ) (2022-11-21T18:56:00Z) - LSA-T: The first continuous Argentinian Sign Language dataset for Sign
Language Translation [52.87578398308052]
手話翻訳(SLT)は、人間とコンピュータの相互作用、コンピュータビジョン、自然言語処理、機械学習を含む活発な研究分野である。
本稿では,最初の連続的アルゼンチン手話(LSA)データセットを提案する。
このビデオには、CN Sordos YouTubeチャンネルから抽出されたLCAの14,880の文レベルのビデオと、各署名者のためのラベルとキーポイントアノテーションが含まれている。
論文 参考訳(メタデータ) (2022-11-14T14:46:44Z) - Speech-to-Speech Translation For A Real-world Unwritten Language [62.414304258701804]
本研究では、ある言語から別の言語に音声を翻訳する音声音声翻訳(S2ST)について研究する。
我々は、トレーニングデータ収集、モデル選択、ベンチマークデータセットのリリースからエンドツーエンドのソリューションを提示します。
論文 参考訳(メタデータ) (2022-11-11T20:21:38Z) - SDW-ASL: A Dynamic System to Generate Large Scale Dataset for Continuous
American Sign Language [0.0]
ASLデータセットの最初のバージョンは、30k文、416k単語、18k単語の語彙を合計104時間でリリースしています。
これはビデオの持続時間で現在まで発行されている最大の連続手話データセットである。
論文 参考訳(メタデータ) (2022-10-13T07:08:00Z) - ASL-Homework-RGBD Dataset: An annotated dataset of 45 fluent and
non-fluent signers performing American Sign Language homeworks [32.3809065803553]
このデータセットには、American Sign Language (ASL) を使用した、流動的で非流動的なシグナのビデオが含まれている。
受講生は45名、受講生は45名、受講生は45名であった。
データは、文法的特徴や非マニュアルマーカーを含む署名のいくつかの側面を特定するために注釈付けされている。
論文 参考訳(メタデータ) (2022-07-08T17:18:49Z) - Towards Large-Scale Data Mining for Data-Driven Analysis of Sign
Languages [0.0]
我々は、TikTok、Instagram、YouTubeなどのソーシャルネットワーキングサービスからデータを収集できることを示します。
データ収集パイプラインを用いて,アメリカ手話 (ASL) とブラジル手話 (Libras) の両方で歌の解釈を収集,検討した。
論文 参考訳(メタデータ) (2020-06-03T09:28:17Z) - A Study of Cross-Lingual Ability and Language-specific Information in
Multilingual BERT [60.9051207862378]
Multilingual BERTは、言語間転送タスクで驚くほどうまく機能します。
データサイズとコンテキストウィンドウサイズは、転送可能性にとって重要な要素です。
多言語BERTの言語間能力を改善するために、計算的に安価だが効果的なアプローチがある。
論文 参考訳(メタデータ) (2020-04-20T11:13:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。