論文の概要: Sixth International Workshop on Languages for Modelling Variability (MODEVAR 2024)
- arxiv url: http://arxiv.org/abs/2402.15511v1
- Date: Tue, 19 Dec 2023 08:28:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 07:18:44.064433
- Title: Sixth International Workshop on Languages for Modelling Variability (MODEVAR 2024)
- Title(参考訳): 第6回モデリング変数言語ワークショップ(MODEVAR 2024)
- Authors: Jessie Galasso-Carbonnel, Chico Sundermann,
- Abstract要約: スイスのベルンで開催された第6回モデリング変数に関する国際ワークショップ(MODE 2024)の手続きである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This is the proceedings of the Sixth International Workshop on Languages for Modelling Variability (MODEVAR 2024) which was held at Bern, Switzerland, February 06th 2024.
- Abstract(参考訳): これは、スイスのベルンで開催された第6回モデリング変数に関する国際ワークショップ(MODEVAR 2024)の手続きである。
関連論文リスト
- Proceedings Sixth International Workshop on Formal Methods for Autonomous Systems [0.5633692733812872]
第6回国際自律システム形式的方法ワークショップ(FMAS 2024)の論文を含む。
FMAS 2024は、マンチェスター大学の主催する統合形式的方法に関する第19回国際会議(iFM'24)と共同で開催された。
論文 参考訳(メタデータ) (2024-11-20T11:21:22Z) - Report on the 1st Workshop on Large Language Model for Evaluation in Information Retrieval (LLM4Eval 2024) at SIGIR 2024 [37.103230004631996]
本研究の目的は,情報検索における評価のためのLLMの話題を中心に,情報検索研究者を集結させることである。
このトピックの新規性を考えると、ワークショップは多面的な議論に焦点を当てていた。
論文 参考訳(メタデータ) (2024-08-09T23:55:58Z) - Findings of the 2023 ML-SUPERB Challenge: Pre-Training and Evaluation
over More Languages and Beyond [89.54151859266202]
2023年のMultilingual Speech Universal Performance Benchmark (ML-SUPERB) Challengeは、宣言されたSUPERBフレームワークに拡張される。
この挑戦は12のモデル提出と54の言語コーパスを集め、154の言語を含む包括的なベンチマークをもたらした。
この結果は、単にスケーリングモデルが多言語音声タスクにおける決定的な解決策ではないことを示唆している。
論文 参考訳(メタデータ) (2023-10-09T08:30:01Z) - LeBenchmark 2.0: a Standardized, Replicable and Enhanced Framework for Self-supervised Representations of French Speech [70.3307853082527]
この研究は、SSL対応のフランス語音声技術の評価と構築のためのオープンソースのフレームワークであるLeBenchmark 2.0を紹介している。
文書化され、大規模で、異質なコーパスを含み、14,000時間に及ぶ異質なスピーチがある。
コミュニティが共有する2600万から10億の学習可能なパラメータを含む、トレーニング済みのSSLwav2vec 2.0モデルが10種類含まれている。
論文 参考訳(メタデータ) (2023-09-11T14:13:09Z) - SwissBERT: The Multilingual Language Model for Switzerland [52.1701152610258]
SwissBERTは、スイス関連のテキストを処理するために特別に作られたマスク付き言語モデルである。
SwissBERTはトレーニング済みのモデルで、スイスの国語で書かれたニュース記事に適用しました。
スイスバーティ語は言語アダプターを使用しているため、将来の研究でスイスドイツ語の方言に拡張される可能性がある。
論文 参考訳(メタデータ) (2023-03-23T14:44:47Z) - Proceedings of the NeurIPS 2021 Workshop on Machine Learning for the
Developing World: Global Challenges [0.8035384580801723]
以下は,2021年12月14日,ニューラル情報処理システムに関する第35回会議(NeurIPS)の一環として開催されたML4D(Machine Learning for the developing World)の第5回ワークショップの手順である。
論文 参考訳(メタデータ) (2023-01-10T14:53:28Z) - ZR-2021VG: Zero-Resource Speech Challenge, Visually-Grounded Language
Modelling track, 2021 edition [96.87241233266448]
このトラックは、Zero-Resource Speech Challenge、2021年版、第2ラウンドで導入された。
我々は、新しいトラックを動機付け、参加ルールを詳細に議論する。
また,このトラック用に開発された2つのベースラインシステムについても紹介する。
論文 参考訳(メタデータ) (2021-07-14T08:29:07Z) - Proceedings of the NeurIPS 2020 Workshop on Machine Learning for the
Developing World: Improving Resilience [1.154829465058342]
以下は、2020年12月12日土曜日に開催された第43回NeurIPS Conference on Neural Information Processing Systems (NeurIPS)の一部として開催されるML4D(Machine Learning for the developing World)の第4回ワークショップの手順である。
論文 参考訳(メタデータ) (2021-01-12T08:35:54Z) - A Discriminative Latent-Variable Model for Bilingual Lexicon Induction [100.76471407472599]
本稿では,バイリンガルレキシコン誘導のための新しい識別潜在変数モデルを提案する。
我々のモデルは、Haghighi et al. (2008) 以前の二部語マッチング辞書と表現に基づくアプローチを組み合わせたものである。
論文 参考訳(メタデータ) (2018-08-28T14:47:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。