論文の概要: The TUB Sign Language Corpus Collection
- arxiv url: http://arxiv.org/abs/2508.05374v1
- Date: Thu, 07 Aug 2025 13:16:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 21:11:55.684405
- Title: The TUB Sign Language Corpus Collection
- Title(参考訳): TUB手話コーパスコレクション
- Authors: Eleftherios Avramidis, Vera Czehmann, Fabian Deckert, Lorenz Hufe, Aljoscha Lipski, Yuni Amaloa Quintero Villalobos, Tae Kwon Rhee, Mengqian Shi, Lennart Stölting, Fabrizio Nunnari, Sebastian Möller,
- Abstract要約: 全集には4,381本のビデオファイルが1,300時間以上含まれ、1,3Mのサブタイトルに14Mのトークンが含まれている。
ドイツ語の手話コーパスのサイズは、以前利用可能なコーパスの10倍である。
- 参考スコア(独自算出の注目度): 13.215125559598611
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a collection of parallel corpora of 12 sign languages in video format, together with subtitles in the dominant spoken languages of the corresponding countries. The entire collection includes more than 1,300 hours in 4,381 video files, accompanied by 1,3~M subtitles containing 14~M tokens. Most notably, it includes the first consistent parallel corpora for 8 Latin American sign languages, whereas the size of the German Sign Language corpora is ten times the size of the previously available corpora. The collection was created by collecting and processing videos of multiple sign languages from various online sources, mainly broadcast material of news shows, governmental bodies and educational channels. The preparation involved several stages, including data collection, informing the content creators and seeking usage approvals, scraping, and cropping. The paper provides statistics on the collection and an overview of the methods used to collect the data.
- Abstract(参考訳): 我々は,12の手話のパラレルコーパスをビデオ形式で収集し,対応する国の支配的な話し言葉の字幕とともに提示する。
全集は4,381本のビデオファイルに1,300時間以上含まれ、14~Mのトークンを含む1,3~M字幕が付属している。
最も注目すべきは、8つのラテンアメリカ手話言語のための最初の一貫した並列コーパスを含んでいるのに対して、ドイツ語手話コーパスのサイズは、以前利用可能なコーパスの10倍である。
このコレクションは、様々なオンラインソースから複数の手話の動画を収集・処理することで作成され、主にニュース番組、政府機関、教育チャンネルの放送資料が放送された。
準備には、データ収集、コンテンツクリエーターに通知、使用許可、スクレーピング、収穫など、いくつかの段階が含まれていた。
本報告では,データ収集に使用される手法の統計と概要について述べる。
関連論文リスト
- MultiVENT 2.0: A Massive Multilingual Benchmark for Event-Centric Video Retrieval [57.891157692501345]
$textbfMultiVENT 2.0$は、大規模かつ多言語なイベント中心のビデオ検索ベンチマークである。
218,000以上のニュースビデオと、特定の世界イベントを対象とした3,906のクエリが提供されている。
予備的な結果は、最先端のビジョン言語モデルは、この課題にかなり苦労していることを示している。
論文 参考訳(メタデータ) (2024-10-15T13:56:34Z) - Less is more: concatenating videos for Sign Language Translation from a small set of signs [2.522137108227868]
本稿では,手話翻訳モデルの訓練のために,孤立信号を含む短いクリップを連結して手話内容を生成することを提案する。
V-LIBRASILデータセットは4,089個の手話ビデオで構成され,少なくとも3人が解釈し,数十万の文を生成する。
BLEU-4 と METEOR はそれぞれ 9.2% と 26.2% の有意なスコアを得た。
論文 参考訳(メタデータ) (2024-09-03T00:14:15Z) - Multilingual Synopses of Movie Narratives: A Dataset for Vision-Language Story Understanding [19.544839928488972]
我々はM-SYMON(Multilingual Synopses of Movie Narratives)という大規模多言語ビデオストーリーデータセットを構築した。
M-SYMONには、7つの言語からの13,166本の映画要約ビデオと、101.5時間のビデオの詳細なビデオテキスト対応のマニュアルアノテーションが含まれている。
SyMoNからの注釈付きデータのトレーニングは、Clip AccuracyとSentence IoUのスコアでそれぞれ15.7と16.2でSOTA法を上回ります。
論文 参考訳(メタデータ) (2024-06-18T22:44:50Z) - mOSCAR: A Large-scale Multilingual and Multimodal Document-level Corpus [52.83121058429025]
マルチモーダル大規模言語モデル(mLLM)は大量のテキストイメージデータに基づいて訓練される。
mOSCARは、ウェブからクロールされた最初の大規模多言語およびマルチモーダル文書コーパスである。
163言語、303M文書、200Bトークン、1.15B画像を含む。
論文 参考訳(メタデータ) (2024-06-13T00:13:32Z) - YODAS: Youtube-Oriented Dataset for Audio and Speech [47.60574092241447]
YODASは100以上の言語で500k時間以上の音声データからなる大規模多言語データセットである。
手動または自動の字幕を含むラベル付きサブセットは、教師付きモデルトレーニングを促進する。
YODASはその規模で最初に公開されたデータセットであり、Creative Commonsライセンスの下で配布されている。
論文 参考訳(メタデータ) (2024-06-02T23:43:27Z) - A Hong Kong Sign Language Corpus Collected from Sign-interpreted TV News [35.21381501609772]
TVB-HKSL-Newsは、香港のニュース番組から7ヶ月にわたって収集された新しい手話(HKSL)データセットである。
6,515グルース(SLR用)と2,850漢字または18K漢字(SLT用)の語彙を持つ2人のシグナーの16.07時間のサインビデオで構成されている。
論文 参考訳(メタデータ) (2024-05-02T03:33:17Z) - Models and Datasets for Cross-Lingual Summarisation [78.56238251185214]
対象言語における多文要約に関連付けられたソース言語において,長い文書を含む言語間要約コーパスを提案する。
コーパスは、チェコ語、英語、フランス語、ドイツ語の4つの言語について、12の言語対と指示をカバーしている。
言語対応のウィキペディアのタイトルから、主節と記事の本体を組み合わせることで、ウィキペディアから言語横断的な文書要約インスタンスを導出する。
論文 参考訳(メタデータ) (2022-02-19T11:55:40Z) - Multilingual Open Text 1.0: Public Domain News in 44 Languages [2.642698101441705]
コーパスの最初のリリースには270万以上のニュース記事と、2001年から2021年にかけて発行された100万の短い記事が含まれている。
ソース資料はパブリックドメインにあり、私たちのコレクションはクリエイティブコモンズライセンス(CC BY 4.0)を使用してライセンスされており、コーパスを作成するために使用されるソフトウェアはすべてMITライセンスの下でリリースされています。
論文 参考訳(メタデータ) (2022-01-14T18:58:17Z) - MTVR: Multilingual Moment Retrieval in Videos [89.24431389933703]
大規模な多言語ビデオモーメント検索データセットであるmTVRを導入し、21.8Kのテレビ番組ビデオクリップから218Kの英語と中国語のクエリを含む。
データセットは、人気のTVRデータセット(英語)を中国語クエリと字幕のペアで拡張することで収集される。
両言語からのデータを学習し,操作する多言語モーメント検索モデルであるmXMLを提案する。
論文 参考訳(メタデータ) (2021-07-30T20:01:03Z) - The Tatoeba Translation Challenge -- Realistic Data Sets for Low
Resource and Multilingual MT [0.0]
本稿では,何千もの言語ペアに対するトレーニングとテストデータを提供する機械翻訳のための新しいベンチマークの開発について述べる。
主な目標は、世界言語をより広範囲にカバーしたオープン翻訳ツールとモデルの開発をトリガーすることである。
論文 参考訳(メタデータ) (2020-10-13T13:12:21Z) - CoVoST: A Diverse Multilingual Speech-To-Text Translation Corpus [57.641761472372814]
CoVoSTは11言語から英語への多言語による音声からテキストへの翻訳コーパスである。
11,000人以上の話者と60以上のアクセントで多様化した。
CoVoSTはCC0ライセンスでリリースされており、無料で利用できる。
論文 参考訳(メタデータ) (2020-02-04T14:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。