論文の概要: A Legal Framework for Natural Language Processing Model Training in Portugal
- arxiv url: http://arxiv.org/abs/2405.00536v1
- Date: Wed, 1 May 2024 14:18:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-02 15:27:48.915220
- Title: A Legal Framework for Natural Language Processing Model Training in Portugal
- Title(参考訳): ポルトガルにおける自然言語処理モデルトレーニングのための法的枠組み
- Authors: Rúben Almeida, Evelin Amorim,
- Abstract要約: 本報告では,NLPの日常的使用事例を概説するとともに,その発展にともなうポルトガルの法律について述べる。
本稿では,このコミュニケーションギャップを埋め,よりコンプライアンスの高いポルトガルのNLP研究を促進することを目的としている。
- 参考スコア(独自算出の注目度): 0.2455468619225742
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent advances in deep learning have promoted the advent of many computational systems capable of performing intelligent actions that, until then, were restricted to the human intellect. In the particular case of human languages, these advances allowed the introduction of applications like ChatGPT that are capable of generating coherent text without being explicitly programmed to do so. Instead, these models use large volumes of textual data to learn meaningful representations of human languages. Associated with these advances, concerns about copyright and data privacy infringements caused by these applications have emerged. Despite these concerns, the pace at which new natural language processing applications continued to be developed largely outperformed the introduction of new regulations. Today, communication barriers between legal experts and computer scientists motivate many unintentional legal infringements during the development of such applications. In this paper, a multidisciplinary team intends to bridge this communication gap and promote more compliant Portuguese NLP research by presenting a series of everyday NLP use cases, while highlighting the Portuguese legislation that may arise during its development.
- Abstract(参考訳): 近年のディープラーニングの進歩は、人間の知性に制限された知的行動を実行することのできる多くの計算システムの出現を促進している。
人間の言語の場合、これらの進歩により、明示的にプログラムされることなくコヒーレントなテキストを生成することができるChatGPTのようなアプリケーションの導入が可能になった。
代わりに、これらのモデルは、人間の言語の意味のある表現を学ぶために大量のテキストデータを使用する。
これらの進歩に関連して、これらのアプリケーションによって引き起こされる著作権やデータのプライバシー侵害に関する懸念が浮上している。
これらの懸念にもかかわらず、新しい自然言語処理アプリケーションの開発が続けられるペースは、新しい規則の導入よりも大きく向上した。
今日では、法律の専門家とコンピュータ科学者の間のコミュニケーション障壁は、そのようなアプリケーションの開発において意図しない法的侵害の多くを動機付けている。
本稿では、このコミュニケーションギャップを埋め、日々のNLP使用事例を提示し、ポルトガルのNLP研究をより順応させることを目的としている。
関連論文リスト
- Generative AI and Large Language Models in Language Preservation: Opportunities and Challenges [0.0]
ジェネレーティブAIと大規模言語モデル(LLM)は、言語保存の強力なツールとして登場した。
本稿では,絶滅危惧言語保存におけるジェネレーティブAIとLLMの役割について検討し,その使用に伴うリスクと課題を明らかにする。
論文 参考訳(メタデータ) (2025-01-20T14:03:40Z) - Real-Time Multilingual Sign Language Processing [4.626189039960495]
手話処理(SLP)は、自然言語処理(NLP)とコンピュータビジョンからなる学際分野である。
伝統的なアプローチは、言語固有のものであり、手話の多次元的な性質を捉えるのに不十分なグロスベースのシステムを使用することによって、しばしば制約されてきた。
本稿では,手話文字起こし表記システムであるSignWiringを,手話の視覚・ジェスチャーのモダリティとテキストに基づく言語表現の中間的リンクとして用いることを提案する。
論文 参考訳(メタデータ) (2024-12-02T21:51:41Z) - Bridging the Language Gaps in Large Language Models with Inference-Time Cross-Lingual Intervention [71.12193680015622]
大規模言語モデル(LLM)は自然言語処理において顕著な能力を示している。
LLMは異なる言語間で大きな性能差を示す。
Inference-Time Cross-Lingual Intervention (INCLINE) を提案する。
論文 参考訳(メタデータ) (2024-10-16T11:23:03Z) - InstructionCP: A fast approach to transfer Large Language Models into target language [55.2480439325792]
InsCPは命令タグをCPプロセスに統合し、新しい言語を習得する際の会話能力の喪失を防ぐ。
実験の結果,InsCPは人間のフィードバック能力から会話と強化学習を維持していることがわかった。
このアプローチでは、高品質な命令追従データを0.1億トークンしか必要とせず、それによってリソース消費が減少する。
論文 参考訳(メタデータ) (2024-05-30T15:45:13Z) - A Survey on Large Language Models with Multilingualism: Recent Advances and New Frontiers [51.8203871494146]
LLM(Large Language Models)の急速な開発は、自然言語処理における顕著な多言語機能を示している。
LLMのブレークスルーにもかかわらず、多言語シナリオの研究は依然として不十分である。
本調査は,多言語問題に対する研究コミュニティの取り組みを支援することを目的としており,LLMに基づく多言語自然言語処理における中核概念,鍵技術,最新の発展の包括的理解を提供する。
論文 参考訳(メタデータ) (2024-05-17T17:47:39Z) - Prompting Towards Alleviating Code-Switched Data Scarcity in Under-Resourced Languages with GPT as a Pivot [1.3741556944830366]
本研究により, GPT 3.5は, 英語, よるば, 英語のコード変更文を生成することができた。
ヨルバのような非ラテン文字を用いた言語の文の質は、アフリカーンス英語の成功率と比較してかなり低い。
本稿では,GPTを用いた合成コードスイッチングデータの多様性向上のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-26T07:44:44Z) - Conversations in Galician: a Large Language Model for an
Underrepresented Language [2.433983268807517]
本稿では,ガリシア語に対する自然言語処理(NLP)を強化するために設計された2つの新しい資源を紹介する。
52,000の指示と実演を含むアルパカデータセットのガリシア適応について述べる。
データセットユーティリティのデモとして、元々モデルでサポートされていない言語であるGalicianで、LLaMA-7Bの理解と応答を微調整した。
論文 参考訳(メタデータ) (2023-11-07T08:52:28Z) - MCoNaLa: A Benchmark for Code Generation from Multiple Natural Languages [76.93265104421559]
英語以外の自然言語コマンドからコード生成をベンチマークします。
スペイン語,日本語,ロシア語の3言語で896個のNLコードペアを注釈した。
難易度はこれらの3つの言語によって異なるが、全てのシステムは英語にかなり遅れている。
論文 参考訳(メタデータ) (2022-03-16T04:21:50Z) - Including Signed Languages in Natural Language Processing [48.62744923724317]
署名された言語は、聴覚障害者や難聴者のコミュニケーションの主な手段です。
このポジショニングペーパーは、NLPコミュニティに対して、社会的および科学的影響の高い研究領域として署名された言語を含めるよう求めている。
論文 参考訳(メタデータ) (2021-05-11T17:37:55Z) - Lawformer: A Pre-trained Language Model for Chinese Legal Long Documents [56.40163943394202]
我々は,中国法定長文理解のためのLongformerベースの事前学習言語モデル,Lawformerをリリースする。
判決の予測,類似事例の検索,法的読解,法的質問の回答など,さまざまな法務上の課題について法務担当者を評価した。
論文 参考訳(メタデータ) (2021-05-09T09:39:25Z) - A Short Survey of Pre-trained Language Models for Conversational AI-A
NewAge in NLP [17.10418053437171]
最近導入された事前学習言語モデルは、データ不足の問題に対処する可能性がある。
これらのモデルは、階層的関係、長期依存、感情など、異なる言語の側面を捉えることを実証している。
本論文では,これらの事前学習モデルが対話システムに関連する課題を克服できるかどうかを明らかにする。
論文 参考訳(メタデータ) (2021-04-22T01:00:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。