論文の概要: Content4All Open Research Sign Language Translation Datasets
- arxiv url: http://arxiv.org/abs/2105.02351v1
- Date: Wed, 5 May 2021 22:14:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 13:39:51.687812
- Title: Content4All Open Research Sign Language Translation Datasets
- Title(参考訳): Content4All Open Research Sign Language Translation Datasets
- Authors: Necati Cihan Camgoz, Ben Saunders, Guillaume Rochette, Marco
Giovanelli, Giacomo Inches, Robin Nachtrab-Ribback, Richard Bowden
- Abstract要約: 我々は、より大きなニュース領域に関する190時間の映像からなる6つのデータセットをリリースする。
このことから、聴覚障害者の専門家や通訳者が20時間の映像を注釈し、研究目的で公開しています。
- 参考スコア(独自算出の注目度): 27.36513138911057
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Computational sign language research lacks the large-scale datasets that
enables the creation of useful reallife applications. To date, most research
has been limited to prototype systems on small domains of discourse, e.g.
weather forecasts. To address this issue and to push the field forward, we
release six datasets comprised of 190 hours of footage on the larger domain of
news. From this, 20 hours of footage have been annotated by Deaf experts and
interpreters and is made publicly available for research purposes. In this
paper, we share the dataset collection process and tools developed to enable
the alignment of sign language video and subtitles, as well as baseline
translation results to underpin future research.
- Abstract(参考訳): 計算手話の研究は、有用な実生活アプリケーションの作成を可能にする大規模なデータセットを欠いている。
これまで、ほとんどの研究は、言論の小さな領域のプロトタイプシステムに限られてきた。
天気予報。
この問題に対処し、フィールドを前進させるために、より大きなニュース領域で190時間分の映像からなる6つのデータセットをリリースします。
そこから20時間の映像が難聴の専門家や通訳によって注釈付けされ、研究目的で公開されている。
本稿では,手話ビデオと字幕のアライメントを実現するために開発されたデータセット収集プロセスとツールを共有するとともに,今後の研究の基盤となるベースライン翻訳結果を共有する。
関連論文リスト
- Open the Data! Chuvash Datasets [50.59120569845975]
Chuvash言語用の包括的データセットを4つ紹介する。
これらのデータセットには、モノリンガルデータセット、ロシア語による並列データセット、英語による並列データセット、オーディオデータセットが含まれる。
論文 参考訳(メタデータ) (2024-05-31T07:51:19Z) - Aya Dataset: An Open-Access Collection for Multilingual Instruction
Tuning [49.79783940841352]
既存のデータセットはほとんどが英語で書かれている。
私たちは世界中の言語に精通した話者と協力して、指示と完了の自然な例を集めています。
既存のデータセットを114言語でテンプレート化し、翻訳することで、5億1300万のインスタンスを含む、これまでで最も広範な多言語コレクションを作成します。
論文 参考訳(メタデータ) (2024-02-09T18:51:49Z) - MSVD-Indonesian: A Benchmark for Multimodal Video-Text Tasks in
Indonesian [0.0]
MSVDデータセットからインドネシア語文への英語文の翻訳により、インドネシア初のパブリックなビデオテキストデータセットを構築した。
次に、英語のビデオテキストデータセットのために開発されたニューラルネットワークモデルを3つのタスク、すなわち、テキスト・ツー・ビデオ検索、ビデオ・ツー・テキスト検索、ビデオキャプションでトレーニングする。
論文 参考訳(メタデータ) (2023-06-20T07:19:36Z) - Using Large Language Models to Generate Engaging Captions for Data
Visualizations [51.98253121636079]
大規模言語モデル(LLM)は、高度なディープラーニング技術を用いて人間のような散文を生成する。
主な課題は、プロンプトエンジニアリングと呼ばれるLLMの最も効果的なプロンプトを設計することである。
我々は,LLM GPT-3を用いた最初の実験について報告し,いくつかの有望な結果を得た。
論文 参考訳(メタデータ) (2022-12-27T23:56:57Z) - MAD: A Scalable Dataset for Language Grounding in Videos from Movie
Audio Descriptions [109.84031235538002]
我々は、既存のビデオデータセットをテキストアノテーションで拡張するパラダイムから外れた、新しいベンチマークであるMAD(Movie Audio Descriptions)を提示する。
MADには1200時間以上のビデオに接地された384,000以上の自然言語文が含まれており、現在診断されているビデオ言語接地データセットのバイアスが大幅に減少している。
論文 参考訳(メタデータ) (2021-12-01T11:47:09Z) - Survey of Low-Resource Machine Translation [65.52755521004794]
現在、世界中で約7000の言語が話されており、ほとんど全ての言語ペアは機械翻訳モデルのトレーニングのための重要なリソースを欠いている。
翻訳データが少ない場合に有用な翻訳モデルを作成するという課題に対処する研究への関心が高まっている。
論文 参考訳(メタデータ) (2021-09-01T16:57:58Z) - The Tatoeba Translation Challenge -- Realistic Data Sets for Low
Resource and Multilingual MT [0.0]
本稿では,何千もの言語ペアに対するトレーニングとテストデータを提供する機械翻訳のための新しいベンチマークの開発について述べる。
主な目標は、世界言語をより広範囲にカバーしたオープン翻訳ツールとモデルの開発をトリガーすることである。
論文 参考訳(メタデータ) (2020-10-13T13:12:21Z) - A High-Quality Multilingual Dataset for Structured Documentation
Translation [101.41835967142521]
本稿では,文書領域を対象とした高品質な多言語データセットを提案する。
エンタープライズソフトウェアプラットフォームのオンラインドキュメントからXML構造化の並列テキストセグメントを収集します。
論文 参考訳(メタデータ) (2020-06-24T02:08:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。