論文の概要: Applying Automated Machine Translation to Educational Video Courses
- arxiv url: http://arxiv.org/abs/2301.03141v1
- Date: Mon, 9 Jan 2023 01:44:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 16:42:32.437241
- Title: Applying Automated Machine Translation to Educational Video Courses
- Title(参考訳): 自動機械翻訳を教育ビデオコースに適用する
- Authors: Linden Wang
- Abstract要約: オンラインビデオ教育分野における機械翻訳の自動化能力について検討した。
テキストから音声への合成を応用し、ターゲット言語でのエンゲージメントビデオの構築を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We studied the capability of automated machine translation in the online
video education space by automatically translating Khan Academy videos with
state of the art translation models and applying Text-to-Speech synthesis to
build engaging videos in target languages. We also analyzed and established a
reliable translation confidence estimator based on round-trip translations in
order to efficiently manage translation quality and reduce human translation
effort. Finally, we developed a deployable system to deliver translated videos
to end users and collect user corrections for iterative improvement.
- Abstract(参考訳): オンラインビデオ教育分野における自動機械翻訳の能力について,khan academyの動画を最先端の翻訳モデルで自動翻訳し,テキストから音声への合成を適用し,対象言語で興味をそそるビデオを作成することにより検討した。
また, 翻訳品質を効率的に管理し, 翻訳作業を減らすために, ラウンドトリップ翻訳に基づく信頼性の高い翻訳信頼度推定器を構築した。
最後に,エンドユーザーに翻訳映像を配信し,反復的な改善のためにユーザ修正を収集するデプロイ可能なシステムを開発した。
関連論文リスト
- Bilingual Corpus Mining and Multistage Fine-Tuning for Improving Machine
Translation of Lecture Transcripts [50.00305136008848]
本研究では,並列コーパスマイニングのためのフレームワークを提案し,Coursera の公開講義から並列コーパスを迅速かつ効果的にマイニングする方法を提案する。
日英両国の講義翻訳において,約5万行の並列コーパスを抽出し,開発・テストセットを作成した。
また,コーパスの収集とクリーニング,並列文のマイニング,マイニングデータのクリーニング,高品質な評価スプリットの作成に関するガイドラインも提案した。
論文 参考訳(メタデータ) (2023-11-07T03:50:25Z) - Synslator: An Interactive Machine Translation Tool with Online Learning [19.6690111454278]
インタラクティブ機械翻訳(IMT)は、コンピュータ支援翻訳パラダイムの進歩として登場した。
本稿では、IMTをサポートするだけでなく、リアルタイム翻訳記憶を用いたオンライン学習にも長けているユーザフレンドリーなコンピュータ支援翻訳(CAT)ツールであるSynslatorを紹介する。
論文 参考訳(メタデータ) (2023-10-08T06:05:55Z) - Video-Teller: Enhancing Cross-Modal Generation with Fusion and
Decoupling [79.49128866877922]
Video-Tellerは、マルチモーダル融合と微粒なモーダルアライメントを利用するビデオ言語基盤モデルである。
Video-Tellerは、凍結した事前訓練されたビジョンと言語モジュールを利用することで、トレーニング効率を高める。
大規模言語モデルの堅牢な言語機能を活用し、簡潔かつ精巧なビデオ記述の生成を可能にする。
論文 参考訳(メタデータ) (2023-10-08T03:35:27Z) - Incorporating Human Translator Style into English-Turkish Literary
Machine Translation [0.26168876987285306]
我々は,翻訳者のスタイリスティックな特徴を考慮した機械翻訳モデルを開発した。
対象機械翻訳において,人間の翻訳スタイルを高度に再現できることが示される。
論文 参考訳(メタデータ) (2023-07-21T09:39:50Z) - Improving Isochronous Machine Translation with Target Factors and
Auxiliary Counters [71.02335065794384]
本稿では,目標言語音素列と連続した継続時間を予測するために,変圧器モデルに目標因子を導入する。
また,本モデルでは,従来よりも翻訳品質と等時性の向上が図られている。
論文 参考訳(メタデータ) (2023-05-22T16:36:04Z) - Decomposed Prompting for Machine Translation Between Related Languages
using Large Language Models [55.35106713257871]
DecoMTは、単語チャンク翻訳のシーケンスに翻訳プロセスを分解する、数発のプロンプトの新しいアプローチである。
DecoMTはBLOOMモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-22T14:52:47Z) - The Best of Both Worlds: Combining Human and Machine Translations for
Multilingual Semantic Parsing with Active Learning [50.320178219081484]
人文翻訳と機械翻訳の両方の長所を生かした能動的学習手法を提案する。
理想的な発話選択は、翻訳されたデータの誤りとバイアスを著しく低減することができる。
論文 参考訳(メタデータ) (2023-05-22T05:57:47Z) - BSTC: A Large-Scale Chinese-English Speech Translation Dataset [26.633433687767553]
BSTC (Baidu Speech Translation Corpus) は、中国語と英語の大規模翻訳データセットである。
このデータセットは、約68時間のマンダリンデータを含む講演や講義のライセンス付きビデオのコレクションに基づいて構築されている。
3名の経験豊富な通訳者に、模擬会議の設定で同時にテストトークを解釈するよう依頼しました。
論文 参考訳(メタデータ) (2021-04-08T07:38:51Z) - Designing the Business Conversation Corpus [20.491255702901288]
我々は,新たに構築された日英ビジネス会話並列コーパスを導入することで,会話テキストの機械翻訳品質を向上させることを目的とする。
コーパスの詳細な解析と自動翻訳の難題について述べる。
また、機械翻訳訓練シナリオにコーパスを追加して、結果のシステムの利用によるメリットを示す実験を行った。
論文 参考訳(メタデータ) (2020-08-05T05:19:44Z) - Keyframe Segmentation and Positional Encoding for Video-guided Machine
Translation Challenge 2020 [28.38178018722211]
我々は,ビデオ誘導機械翻訳チャレンジ2020に近づいた映像誘導機械翻訳システムについて紹介した。
評価フェーズでは,36.60コーパスレベルBLEU-4を記録し,ビデオ誘導機械翻訳チャレンジ2020で1位を獲得した。
論文 参考訳(メタデータ) (2020-06-23T07:15:11Z) - Unsupervised Multimodal Video-to-Video Translation via Self-Supervised
Learning [92.17835753226333]
本稿では,教師なしビデオ間翻訳モデルを提案する。
本モデルは,特殊なUVデコーダ構造を用いて,そのスタイルと内容を分解する。
我々のモデルは、マルチモーダルな方法で写真リアリスティックなビデオを作成することができる。
論文 参考訳(メタデータ) (2020-04-14T13:44:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。