論文の概要: Bangla AI: A Framework for Machine Translation Utilizing Large Language
Models for Ethnic Media
- arxiv url: http://arxiv.org/abs/2402.14179v1
- Date: Wed, 21 Feb 2024 23:43:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 17:05:52.122351
- Title: Bangla AI: A Framework for Machine Translation Utilizing Large Language
Models for Ethnic Media
- Title(参考訳): Bangla AI: エスニックメディアのための大規模言語モデルを活用した機械翻訳フレームワーク
- Authors: MD Ashraful Goni, Fahad Mostafa, Kerk F. Kee
- Abstract要約: エスニックメディアはホスト国のディアスポラコミュニティに注目する。
ホスト国の言語を利用するのではなく、民族メディアは移民コミュニティの言語でニュースを提供する。
この研究は、民族メディア産業における大規模言語モデル(LLM)と多言語機械翻訳(MMT)の今後の統合について考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ethnic media, which caters to diaspora communities in host nations, serves as
a vital platform for these communities to both produce content and access
information. Rather than utilizing the language of the host nation, ethnic
media delivers news in the language of the immigrant community. For instance,
in the USA, Bangla ethnic media presents news in Bangla rather than English.
This research delves into the prospective integration of large language models
(LLM) and multi-lingual machine translations (MMT) within the ethnic media
industry. It centers on the transformative potential of using LLM in MMT in
various facets of news translation, searching, and categorization. The paper
outlines a theoretical framework elucidating the integration of LLM and MMT
into the news searching and translation processes for ethnic media.
Additionally, it briefly addresses the potential ethical challenges associated
with the incorporation of LLM and MMT in news translation procedures.
- Abstract(参考訳): 民族メディアは、ホスト国のディアスポラのコミュニティを対象とし、これらのコミュニティがコンテンツとアクセス情報の両方を生産するための重要なプラットフォームとなっている。
ホスト国の言語を利用するのではなく、民族メディアは移民コミュニティの言語でニュースを提供する。
例えばアメリカ合衆国では、バングラの民族メディアは英語よりもバングラでニュースを流している。
この研究は、民族メディア産業における大規模言語モデル(LLM)と多言語機械翻訳(MMT)の今後の統合について考察する。
ニュース翻訳、検索、分類の様々な面において、MDTでLLMを使用することの変換可能性に焦点を当てている。
本稿は、民族メディアのニュース検索・翻訳プロセスにLLMとMTを統合するための理論的枠組みを概説する。
さらに、ニュース翻訳におけるLLMとMTの導入に伴う潜在的な倫理的課題を簡潔に解決する。
関連論文リスト
- Crosslingual Capabilities and Knowledge Barriers in Multilingual Large Language Models [62.91524967852552]
大規模言語モデル(LLM)は、多言語コーパスの事前訓練のため、一般的に多言語である。
しかし、これらのモデルは言語間で対応する概念を関連付けることができ、効果的にクロスランガルなのでしょうか?
本研究は,言語横断的課題に関する6つの技術 LLM の評価を行った。
論文 参考訳(メタデータ) (2024-06-23T15:15:17Z) - Unraveling Code-Mixing Patterns in Migration Discourse: Automated Detection and Analysis of Online Conversations on Reddit [4.019533549688538]
本稿では,Reddit などのソーシャルメディアプラットフォームにおける移動関連談話における多言語話者間のコミュニケーション戦略である Code-mixing の利用について検討する。
本稿では,移動に関する議論において,コード混合メッセージを自動的に検出する新しいアプローチであるELMICT(Ensemble Learning for Identification of Code-mixed Texts)を提案する。
論文 参考訳(メタデータ) (2024-06-12T20:30:34Z) - Exploring News Summarization and Enrichment in a Highly Resource-Scarce Indian Language: A Case Study of Mizo [7.393476206148905]
本研究では,三蔵ニュース記事の総合的な要約を生成するための簡易手法の有効性について検討する。
我々は,500件のミゾニュース記事とそれに対応する豊富な総論要約を公開している。
人的評価は,提案手法がミゾニュース記事の情報カバレッジを著しく向上させることを確認した。
論文 参考訳(メタデータ) (2024-04-25T17:23:04Z) - Let Models Speak Ciphers: Multiagent Debate through Embeddings [84.20336971784495]
この問題を解決するためにCIPHER(Communicative Inter-Model Protocol Through Embedding Representation)を導入する。
自然言語から逸脱することで、CIPHERはモデルの重みを変更することなく、より広い範囲の情報を符号化する利点を提供する。
このことは、LLM間の通信における代替の"言語"としての埋め込みの優越性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-10-10T03:06:38Z) - Neural Machine Translation for the Indigenous Languages of the Americas:
An Introduction [102.13536517783837]
アメリカ大陸のほとんどの言語は、もしあるならば、並列データと単言語データしか持たない。
これらの言語におけるNLPコミュニティの関心が高まった結果、最近の進歩、発見、オープンな質問について論じる。
論文 参考訳(メタデータ) (2023-06-11T23:27:47Z) - MMT: A Multilingual and Multi-Topic Indian Social Media Dataset [1.0413233169366503]
ソーシャルメディアは異文化間コミュニケーションにおいて重要な役割を担っている。
多くはコードミキシングと多言語形式で行われる。
我々はTwitterから収集した大規模多言語・マルチトピックデータセット(MMT)を紹介する。
論文 参考訳(メタデータ) (2023-04-02T21:39:00Z) - Challenges and Considerations with Code-Mixed NLP for Multilingual
Societies [1.6675267471157407]
本稿では,NLP研究の現状,限界,予測可能な落とし穴について論じる。
また,社会福祉のための多言語NLPアプリケーションにおける現在の研究を著しく進めることができる未来的データセット,モデル,ツールも提案する。
論文 参考訳(メタデータ) (2021-06-15T00:53:55Z) - MetaXL: Meta Representation Transformation for Low-resource
Cross-lingual Learning [91.5426763812547]
言語間移動学習は低リソース言語のための機能的NLPシステムを構築するための最も効果的な方法の1つである。
MetaXLは、メタラーニングベースのフレームワークで、表現を補助言語からターゲット言語にジャッジに変換することを学ぶ。
論文 参考訳(メタデータ) (2021-04-16T06:15:52Z) - NewsBERT: Distilling Pre-trained Language Model for Intelligent News
Application [56.1830016521422]
本稿では,学習済み言語モデルを抽出し,効率的なニュースインテリジェンスを実現するNewsBERTを提案する。
そこで本研究では,教師と学生の共学モデルを協調的に学習するための,教師と学生の共学学習・蒸留の枠組みを設計する。
実験では,NewsBERTはより小さなモデルで,様々なインテリジェントなニュースアプリケーションのモデル性能を効果的に向上させることができる。
論文 参考訳(メタデータ) (2021-02-09T15:41:12Z) - Universal Sentence Representation Learning with Conditional Masked
Language Model [7.334766841801749]
文表現を効果的に学習するための条件付きマスク言語モデリング(M)を提案する。
我々の英語CMLMモデルは,SentEvalの最先端性能を実現する。
完全に教師なしの学習方法として、CMLMは幅広い言語やドメインに便利に拡張できます。
論文 参考訳(メタデータ) (2020-12-28T18:06:37Z) - FILTER: An Enhanced Fusion Method for Cross-lingual Language
Understanding [85.29270319872597]
我々は,XLMファインタニングの入力として言語間データを利用する拡張融合法を提案する。
推論中は、ターゲット言語で入力されたテキストとソース言語の翻訳に基づいて予測を行う。
この問題に対処するため,対象言語における翻訳テキストのための自動生成ソフト擬似ラベルに基づくモデル学習のためのKL分割自己学習損失を提案する。
論文 参考訳(メタデータ) (2020-09-10T22:42:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。