論文の概要: 9th Workshop on Sign Language Translation and Avatar Technologies (SLTAT 2025)
- arxiv url: http://arxiv.org/abs/2508.08050v1
- Date: Mon, 11 Aug 2025 14:50:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:29.156956
- Title: 9th Workshop on Sign Language Translation and Avatar Technologies (SLTAT 2025)
- Title(参考訳): 第9回手話翻訳・アバター技術ワークショップ(SLTAT 2025)
- Authors: Fabrizio Nunnari, Cristina Luna Jiménez, Rosalee Wolfe, John C. McDonald, Michael Filhol, Eleni Efthimiou, Evita Fotinea, Thomas Hanke,
- Abstract要約: 手話翻訳とアバター技術(SLTAT)のワークショップは、非侵襲的な手段による聴覚/人的コミュニケーションの改善における最近の進歩を共有するために、一連の集まりを継続している。
2011年に初登場したこの2025版は、International Conference on Intelligent Virtual Agents (IVA)によって開催されている。
本論文で述べられているように、SLTATはアバター技術を超えて、手話認識に一貫した数で貢献している。
- 参考スコア(独自算出の注目度): 4.6241488925089
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The Sign Language Translation and Avatar Technology (SLTAT) workshops continue a series of gatherings to share recent advances in improving deaf / human communication through non-invasive means. This 2025 edition, the 9th since its first appearance in 2011, is hosted by the International Conference on Intelligent Virtual Agents (IVA), giving the opportunity for contamination between two research communities, using digital humans as either virtual interpreters or as interactive conversational agents. As presented in this summary paper, SLTAT sees contributions beyond avatar technologies, with a consistent number of submissions on sign language recognition, and other work on data collection, data analysis, tools, ethics, usability, and affective computing.
- Abstract(参考訳): 手話翻訳とアバター技術(SLTAT)のワークショップは、非侵襲的な手段による聴覚/人的コミュニケーションの改善における最近の進歩を共有するために、一連の集まりを継続している。
2011年に初登場したこの2025版は、国際知的バーチャルエージェント会議(IVA)が主催し、デジタル人間をバーチャルインタプリタまたは対話型対話エージェントとして使用する2つの研究コミュニティ間の汚染の機会を提供する。
この要約論文で述べられているように、SLTATはアバター技術を超えて、手話認識や、データ収集、データ分析、ツール、倫理、ユーザビリティ、情緒的コンピューティングなどに関する多くの論文を投稿している。
関連論文リスト
- Seamless Interaction: Dyadic Audiovisual Motion Modeling and Large-Scale Dataset [113.25650486482762]
4000時間以上の対面インタラクション映像の大規模な収集であるSeamless Interactionデータセットを紹介した。
このデータセットは、ダイドの具体的ダイナミクスを理解するAIテクノロジの開発を可能にする。
そこで我々は,このデータセットを用いて,人間の発話に適応した動作ジェスチャーと表情を生成するモデル群を開発した。
論文 参考訳(メタデータ) (2025-06-27T18:09:49Z) - Proceedings of the ISCA/ITG Workshop on Diversity in Large Speech and Language Models [11.46358189300007]
現代の技術は1つまたは複数の言語の一般的な知識を表現するために大きなモデルに依存している。
人間がそのような技術と対話するとき、その相互作用の有効性は、人間が同じタイプの言語をどこまで使うかによって影響される。
論文 参考訳(メタデータ) (2025-03-12T17:58:57Z) - MindSpeech: Continuous Imagined Speech Decoding using High-Density fNIRS and Prompt Tuning for Advanced Human-AI Interaction [0.0]
本稿では,脳とAIの直接インターフェースを開発することによって,人間とAIのインタラクションを実現する新しい手法を提案する。
我々はMindSpeechと呼ばれる新しいAIモデルについて論じる。
4名中3名に対してBLEU-1,BERT Pスコアなどの指標を有意に改善した。
論文 参考訳(メタデータ) (2024-07-25T16:39:21Z) - Harnessing the Power of Artificial Intelligence to Vitalize Endangered Indigenous Languages: Technologies and Experiences [31.62071644137294]
我々は、世界の言語の多様性の低下と、AIとNLPに固有の倫理的課題をもたらすインディジェネラル言語について論じる。
Indigenous Language のための高品質な機械学習トランスレータの開発に励む成果を報告する。
私たちは2023年と2024年にブラジルの先住民コミュニティで実施したプロジェクトで構築したプロトタイプを紹介します。
論文 参考訳(メタデータ) (2024-07-17T14:46:37Z) - Language Detection for Transliterated Content [0.0]
我々は、英語のアルファベットを母国語でメッセージを伝えるために使用する翻訳の広汎な利用について研究する。
本稿では,ヒンディー語とロシア語を英語に翻訳した音声テキストのデータセットを用いて,この問題に対処する。
この研究は、翻訳されたテキストを識別し、変換するための革新的なアプローチの先駆者である。
論文 参考訳(メタデータ) (2024-01-09T15:40:54Z) - Towards a Deep Understanding of Multilingual End-to-End Speech
Translation [52.26739715012842]
我々は22言語以上で訓練された多言語エンドツーエンド音声翻訳モデルで学習した表現を解析する。
我々は分析から3つの大きな発見を得た。
論文 参考訳(メタデータ) (2023-10-31T13:50:55Z) - ComSL: A Composite Speech-Language Model for End-to-End Speech-to-Text
Translation [79.66359274050885]
公的な事前訓練された音声のみのモデルと言語のみのモデルからなる複合アーキテクチャ上に構築された音声言語モデルであるComSLを提案する。
提案手法は,エンドツーエンドの音声-テキスト翻訳タスクにおいて有効であることを示す。
論文 参考訳(メタデータ) (2023-05-24T07:42:15Z) - LSA-T: The first continuous Argentinian Sign Language dataset for Sign
Language Translation [52.87578398308052]
手話翻訳(SLT)は、人間とコンピュータの相互作用、コンピュータビジョン、自然言語処理、機械学習を含む活発な研究分野である。
本稿では,最初の連続的アルゼンチン手話(LSA)データセットを提案する。
このビデオには、CN Sordos YouTubeチャンネルから抽出されたLCAの14,880の文レベルのビデオと、各署名者のためのラベルとキーポイントアノテーションが含まれている。
論文 参考訳(メタデータ) (2022-11-14T14:46:44Z) - Sign Language Transformers: Joint End-to-end Sign Language Recognition
and Translation [59.38247587308604]
本稿では,連続手話認識と翻訳を共同で学習するトランスフォーマーアーキテクチャを提案する。
RWTH-PHOENIX-Weather-2014Tデータセットの認識と翻訳性能の評価を行った。
我々の翻訳ネットワークは、動画を音声言語に、光沢を音声言語翻訳モデルに、どちらよりも優れています。
論文 参考訳(メタデータ) (2020-03-30T21:35:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。