論文の概要: Spanish Built Factual Freectianary (Spanish-BFF): the first IA-generated
free dictionary
- arxiv url: http://arxiv.org/abs/2302.12746v1
- Date: Fri, 24 Feb 2023 16:59:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-27 12:50:31.982044
- Title: Spanish Built Factual Freectianary (Spanish-BFF): the first IA-generated
free dictionary
- Title(参考訳): スペイン語構築 Factual Freectianary (スペイン語-BFF):最初のIA生成自由辞書
- Authors: \'Oscar Garc\'ia Sierra, Miguel Ortega-Mart\'in, Alfonso Ardoiz, Juan
Carlos Armenteros, Jorge \'Alvarez and Adri\'an Alonso
- Abstract要約: スペインでは、最初のIA生成辞書として「スペイン構築Factual Freectianary」(スペイン語-BFF)を導入している。
このファースト・オブ・イズ・フリー辞書はGPT-3を使用している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dictionaries are one of the oldest and most used linguistic resources.
Building them is a complex task that, to the best of our knowledge, has yet to
be explored with generative Large Language Models (LLMs). We introduce the
"Spanish Built Factual Freectianary" (Spanish-BFF) as the first Spanish
IA-generated dictionary. This first-of-its-kind free dictionary uses GPT-3. We
also define future steps we aim to follow to improve this initial commitment to
the field, such as more additional languages.
- Abstract(参考訳): 辞書は最も古く、最も使われている言語資源の1つである。
それらを構築することは、私たちの知る限りでは、生成的大規模言語モデル(LLM)ではまだ検討されていない複雑なタスクです。
スペインでは、最初のIA生成辞書として「スペイン構築Factual Freectianary」(スペイン語-BFF)を導入している。
この最初のフリー辞書はGPT-3を使用している。
また、さらなる言語など、この分野へのこの最初のコミットメントを改善するために、これから続くステップを定義します。
関連論文リスト
- Dictionary Insertion Prompting for Multilingual Reasoning on Multilingual Large Language Models [52.00446751692225]
textbfDictionary textbfInsertion textbfPrompting (textbfDIP) という,新規かつシンプルで効果的な方法を提案する。
非英語のプロンプトを提供する際、DIPは単語辞書を調べ、単語の英語のプロンプトをLLMのプロンプトに挿入する。
そして、英語へのより良い翻訳とより良い英語モデル思考のステップを可能にし、明らかにより良い結果をもたらす。
論文 参考訳(メタデータ) (2024-11-02T05:10:50Z) - Are BabyLMs Second Language Learners? [48.85680614529188]
本稿では,BabyLM Challengeの2024年版に対する言語的動機づけのアプローチについて述べる。
第1言語学習(L1)パラダイムを追求するのではなく,第2言語(L2)学習の観点から,課題にアプローチする。
論文 参考訳(メタデータ) (2024-10-28T17:52:15Z) - MoE-LPR: Multilingual Extension of Large Language Models through Mixture-of-Experts with Language Priors Routing [78.62611800987817]
大規模言語モデル(LLM)は、事前学習データに言語が不均等に分布するため、しばしば英語中心である。
そこで本稿では,MoE-LPR (Mixture-of-Experts with Language Priors) と呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2024-08-21T07:43:49Z) - Building another Spanish dictionary, this time with GPT-4 [2.1041517755843984]
我々は、AI生成スペイン語辞書の第2版として、スペイン語構築Factual Freectianary 2.0(スペイン語-BFF-2)を提示する。
本研究では,GPT-4-turboを用いて辞書の改良を図る。
論文 参考訳(メタデータ) (2024-06-17T05:25:56Z) - A Library for Automatic Natural Language Generation of Spanish Texts [6.102700502396687]
本稿では,スペイン語文の自然言語生成システム(NLG)について,意味のある単語の最小セットから提案する。
システムは、ユーザが提示した主語セットから完全で一貫性があり、正しく綴られた文を生成することができる。
設計によって他の言語に容易に適応でき、広範囲のデジタルデバイスに統合することができる。
論文 参考訳(メタデータ) (2024-05-27T15:44:06Z) - Wav2Gloss: Generating Interlinear Glossed Text from Speech [78.64412090339044]
音声から4つの言語アノテーションを自動抽出するタスクであるWav2Glossを提案する。
音声からのインターリニア・グロッシド・テキスト・ジェネレーションの今後の研究の基盤となる基盤となるものについて述べる。
論文 参考訳(メタデータ) (2024-03-19T21:45:29Z) - Spanish Pre-trained BERT Model and Evaluation Data [0.0]
本稿では,スペイン語データのみを対象としたBERTに基づく言語モデルを提案する。
また、スペイン語用のタスクを1つのリポジトリにまとめました。
我々は、我々のモデル、事前トレーニングデータ、およびスペインのベンチマークのコンパイルを公開しました。
論文 参考訳(メタデータ) (2023-08-06T00:16:04Z) - Translate to Disambiguate: Zero-shot Multilingual Word Sense
Disambiguation with Pretrained Language Models [67.19567060894563]
事前訓練された言語モデル(PLM)は、豊富な言語間知識を学習し、多様なタスクでうまく機能するように微調整することができる。
C-WLT(Contextual Word-Level Translation)を用いた言語間単語感覚の捉え方の検討を行った。
モデルのサイズが大きくなるにつれて、PLMはより言語間単語認識の知識をエンコードし、WLT性能を改善するためのコンテキストを良くする。
論文 参考訳(メタデータ) (2023-04-26T19:55:52Z) - Automatically Creating a Large Number of New Bilingual Dictionaries [2.363388546004777]
本稿では,低リソース言語に対して,多数のバイリンガル辞書を自動生成する手法を提案する。
提案アルゴリズムは,利用可能なWordnetと機械翻訳器を用いて,ソースコード中の単語を多言語に翻訳する。
論文 参考訳(メタデータ) (2022-08-12T04:25:23Z) - Automatically constructing Wordnet synsets [2.363388546004777]
本稿では,資源に富む言語と資源に乏しい言語に対して,Wordnetシンセセットを生成する手法を提案する。
提案アルゴリズムは,既存のWordnetの構文を対象言語Tに翻訳し,翻訳候補にランク付け手法を適用してTで最良の翻訳を見つける。
論文 参考訳(メタデータ) (2022-08-08T02:02:18Z) - Anchor-based Bilingual Word Embeddings for Low-Resource Languages [76.48625630211943]
良質な単言語単語埋め込み(MWEs)は、大量のラベルのないテキストを持つ言語向けに構築することができる。
MWEは、数千の単語変換ペアだけでバイリンガル空間に整列することができる。
本稿では,高資源言語におけるベクトル空間を出発点とするBWEの構築手法を提案する。
論文 参考訳(メタデータ) (2020-10-23T19:17:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。