論文の概要: Sixth International Workshop on Languages for Modelling Variability (MODEVAR 2024)
- arxiv url: http://arxiv.org/abs/2402.15511v1
- Date: Tue, 19 Dec 2023 08:28:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 07:18:44.064433
- Title: Sixth International Workshop on Languages for Modelling Variability (MODEVAR 2024)
- Title(参考訳): 第6回モデリング変数言語ワークショップ(MODEVAR 2024)
- Authors: Jessie Galasso-Carbonnel, Chico Sundermann,
- Abstract要約: スイスのベルンで開催された第6回モデリング変数に関する国際ワークショップ(MODE 2024)の手続きである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This is the proceedings of the Sixth International Workshop on Languages for Modelling Variability (MODEVAR 2024) which was held at Bern, Switzerland, February 06th 2024.
- Abstract(参考訳): これは、スイスのベルンで開催された第6回モデリング変数に関する国際ワークショップ(MODEVAR 2024)の手続きである。
関連論文リスト
- Towards Boosting Many-to-Many Multilingual Machine Translation with
Large Language Models [47.39529535727593]
本稿では,大言語モデル(LLM)の多言語多言語翻訳の高速化に焦点をあて,ゼロショット翻訳の方向を重視した。
言語間整合性規則化(XConST)を導入し、異なる言語間の表現ギャップを埋める。
ALMA, Tower, LLaMA-2による実験結果から, 本手法は翻訳性能を継続的に向上することが示された。
論文 参考訳(メタデータ) (2024-01-11T12:11:30Z) - Findings of the 2023 ML-SUPERB Challenge: Pre-Training and Evaluation
over More Languages and Beyond [89.54151859266202]
2023年のMultilingual Speech Universal Performance Benchmark (ML-SUPERB) Challengeは、宣言されたSUPERBフレームワークに拡張される。
この挑戦は12のモデル提出と54の言語コーパスを集め、154の言語を含む包括的なベンチマークをもたらした。
この結果は、単にスケーリングモデルが多言語音声タスクにおける決定的な解決策ではないことを示唆している。
論文 参考訳(メタデータ) (2023-10-09T08:30:01Z) - LeBenchmark 2.0: a Standardized, Replicable and Enhanced Framework for Self-supervised Representations of French Speech [70.3307853082527]
この研究は、SSL対応のフランス語音声技術の評価と構築のためのオープンソースのフレームワークであるLeBenchmark 2.0を紹介している。
文書化され、大規模で、異質なコーパスを含み、14,000時間に及ぶ異質なスピーチがある。
コミュニティが共有する2600万から10億の学習可能なパラメータを含む、トレーニング済みのSSLwav2vec 2.0モデルが10種類含まれている。
論文 参考訳(メタデータ) (2023-09-11T14:13:09Z) - SwissBERT: The Multilingual Language Model for Switzerland [52.1701152610258]
SwissBERTは、スイス関連のテキストを処理するために特別に作られたマスク付き言語モデルである。
SwissBERTはトレーニング済みのモデルで、スイスの国語で書かれたニュース記事に適用しました。
スイスバーティ語は言語アダプターを使用しているため、将来の研究でスイスドイツ語の方言に拡張される可能性がある。
論文 参考訳(メタデータ) (2023-03-23T14:44:47Z) - Proceedings of the NeurIPS 2021 Workshop on Machine Learning for the
Developing World: Global Challenges [0.8035384580801723]
以下は,2021年12月14日,ニューラル情報処理システムに関する第35回会議(NeurIPS)の一環として開催されたML4D(Machine Learning for the developing World)の第5回ワークショップの手順である。
論文 参考訳(メタデータ) (2023-01-10T14:53:28Z) - SERENGETI: Massively Multilingual Language Models for Africa [5.945320097465418]
SERENGETIは517のアフリカの言語と言語を包含する多言語言語モデルである。
我々は、20のデータセットにまたがる8つの自然言語理解タスクに関する新しいモデルを評価し、4-23のアフリカの言語をカバーする4mPLMと比較した。
論文 参考訳(メタデータ) (2022-12-21T05:54:14Z) - ZR-2021VG: Zero-Resource Speech Challenge, Visually-Grounded Language
Modelling track, 2021 edition [96.87241233266448]
このトラックは、Zero-Resource Speech Challenge、2021年版、第2ラウンドで導入された。
我々は、新しいトラックを動機付け、参加ルールを詳細に議論する。
また,このトラック用に開発された2つのベースラインシステムについても紹介する。
論文 参考訳(メタデータ) (2021-07-14T08:29:07Z) - Proceedings of the DATE Friday Workshop on System-level Design Methods
for Deep Learning on Heterogeneous Architectures (SLOHA 2021) [0.836131757697441]
第1回DATE Friday Workshop on System-level Design Methods for Deep Learning on Heterogeneous Architectures (SLOHA 2021)で受理された論文を含む。
SLOHA 2021は、欧州における設計、自動化、テストに関する会議(DATE)と共同開催されました。
論文 参考訳(メタデータ) (2021-01-27T18:14:02Z) - Proceedings of the NeurIPS 2020 Workshop on Machine Learning for the
Developing World: Improving Resilience [1.154829465058342]
以下は、2020年12月12日土曜日に開催された第43回NeurIPS Conference on Neural Information Processing Systems (NeurIPS)の一部として開催されるML4D(Machine Learning for the developing World)の第4回ワークショップの手順である。
論文 参考訳(メタデータ) (2021-01-12T08:35:54Z) - A Discriminative Latent-Variable Model for Bilingual Lexicon Induction [100.76471407472599]
本稿では,バイリンガルレキシコン誘導のための新しい識別潜在変数モデルを提案する。
我々のモデルは、Haghighi et al. (2008) 以前の二部語マッチング辞書と表現に基づくアプローチを組み合わせたものである。
論文 参考訳(メタデータ) (2018-08-28T14:47:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。