論文の概要: Differential Privacy, Linguistic Fairness, and Training Data Influence:
Impossibility and Possibility Theorems for Multilingual Language Models
- arxiv url: http://arxiv.org/abs/2308.08774v1
- Date: Thu, 17 Aug 2023 04:13:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 18:07:05.453996
- Title: Differential Privacy, Linguistic Fairness, and Training Data Influence:
Impossibility and Possibility Theorems for Multilingual Language Models
- Title(参考訳): 差分プライバシー、言語フェアネス、訓練データの影響:多言語言語モデルにおける不可能性と可能性理論
- Authors: Phillip Rust, Anders S{\o}gaard
- Abstract要約: 多言語圧縮と言語フェアネスは、差分プライバシーと互換性があるが、差分プライバシは、訓練データの影響と相反することを示している。
我々は2つの共通NLPタスクに関する一連の実験を行い、異なるプライバシー保証の下で多言語圧縮とトレーニングデータの影響について評価する。
- 参考スコア(独自算出の注目度): 9.922327262529803
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language models such as mBERT, XLM-R, and BLOOM aim to achieve multilingual
generalization or compression to facilitate transfer to a large number of
(potentially unseen) languages. However, these models should ideally also be
private, linguistically fair, and transparent, by relating their predictions to
training data. Can these requirements be simultaneously satisfied? We show that
multilingual compression and linguistic fairness are compatible with
differential privacy, but that differential privacy is at odds with training
data influence sparsity, an objective for transparency. We further present a
series of experiments on two common NLP tasks and evaluate multilingual
compression and training data influence sparsity under different privacy
guarantees, exploring these trade-offs in more detail. Our results suggest that
we need to develop ways to jointly optimize for these objectives in order to
find practical trade-offs.
- Abstract(参考訳): mBERT、XLM-R、BLOOMといった言語モデルは、多言語の一般化や圧縮を実現し、多数の(潜在的に見えない)言語への転送を容易にすることを目的としている。
しかしながら、これらのモデルは、予測をトレーニングデータに関連付けることで、理想的にはプライベートで言語的に公平で透明であるべきです。
これらの要件は同時に満たせるのか?
多言語圧縮と言語公平性は差分プライバシーと互換性があるが、差分プライバシーは透明性の目的であるデータ影響スパーシティのトレーニングと相反する。
さらに、2つの共通NLPタスクに関する一連の実験を提示し、多言語圧縮を評価し、異なるプライバシー保証の下でデータへの影響を訓練し、これらのトレードオフをより詳細に探求する。
この結果から,実践的なトレードオフを見つけるためには,これらの目的を共同で最適化する方法を開発する必要があることが示唆された。
関連論文リスト
- Zero-shot Cross-lingual Transfer Learning with Multiple Source and Target Languages for Information Extraction: Language Selection and Adversarial Training [38.19963761398705]
本稿では,近年のIEコーパスにおける多言語多言語変換可能性(多言語間移動学習)に関する詳細な解析を行う。
まず、単一言語のパフォーマンスと幅広い言語に基づく距離の相関について検討する。
次に,複数の言語が学習・評価プロセスに関与している,より一般的なゼロショット多言語転送設定について検討する。
論文 参考訳(メタデータ) (2024-11-13T17:13:25Z) - Crosslingual Capabilities and Knowledge Barriers in Multilingual Large Language Models [62.91524967852552]
大規模言語モデル(LLM)は、多言語コーパスの事前訓練のため、一般的に多言語である。
しかし、これらのモデルは言語間で対応する概念を関連付けることができ、効果的にクロスランガルなのでしょうか?
本研究は,言語横断的課題に関する6つの技術 LLM の評価を行った。
論文 参考訳(メタデータ) (2024-06-23T15:15:17Z) - Improving In-context Learning of Multilingual Generative Language Models with Cross-lingual Alignment [42.624862172666624]
本稿では,一対の翻訳文を利用する単純な言語間アライメントフレームワークを提案する。
多言語コントラスト学習を通じて、異なる言語にまたがる内部文表現を整合させる。
実験結果から,事前学習トークンが0.1文未満であっても,アライメントフレームワークは生成言語モデルの言語間相互性を大幅に向上させることが明らかとなった。
論文 参考訳(メタデータ) (2023-11-14T11:24:08Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - How do languages influence each other? Studying cross-lingual data sharing during LM fine-tuning [14.02101305717738]
多言語大言語モデル(MLLM)は、多くの異なる言語からのデータに基づいて共同で訓練される。
言語がどの程度、どの条件下で、互いのデータに依存しているかは、まだ不明である。
MLLMは、細調整の初期段階から複数の言語からのデータに依存しており、細調整の進行に伴って、この依存度が徐々に増加することが判明した。
論文 参考訳(メタデータ) (2023-05-22T17:47:41Z) - Cross-lingual Lifelong Learning [53.06904052325966]
本稿では,言語間連続学習(CCL)の評価パラダイムを提案する。
マルチリンガルなシーケンシャルな学習を特に難しいものにするための洞察を提供する。
この分析の意味は、異なる言語間連続学習のデシダータを測り、バランスをとる方法のレシピを含む。
論文 参考訳(メタデータ) (2022-05-23T09:25:43Z) - Specializing Multilingual Language Models: An Empirical Study [50.7526245872855]
事前訓練された多言語モデルからの文脈化語表現は、自然言語タスクに対処するデファクトスタンダードとなっている。
これらのモデルではまれに、あるいは一度も見られない言語では、そのようなモデルを直接使用すると、最適な表現やデータの使用につながることが多い。
論文 参考訳(メタデータ) (2021-06-16T18:13:55Z) - MergeDistill: Merging Pre-trained Language Models using Distillation [5.396915402673246]
我々は、最小限の依存関係で彼らの資産を最大限に活用できる方法で、事前訓練されたLMをマージするフレームワークであるMergeDistillを提案する。
我々は,既存の教師LMと,何桁ものデータと固定モデルキャパシティで訓練された教師LMとの競争力や性能を向上する訓練学生LMを活用して,実践的にフレームワークの適用性を実証する。
論文 参考訳(メタデータ) (2021-06-05T08:22:05Z) - To What Degree Can Language Borders Be Blurred In BERT-based
Multilingual Spoken Language Understanding? [7.245261469258502]
BERTをベースとした多言語言語理解(SLU)モデルは, 遠隔言語群でもかなりうまく機能するが, 理想的な多言語言語性能にはまだギャップがあることを示す。
本稿では,多言語SLUのための言語共有および言語固有表現を学習するための,BERTに基づく新しい逆モデルアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-10T09:59:24Z) - Gender Bias in Multilingual Embeddings and Cross-Lingual Transfer [101.58431011820755]
多言語埋め込みにおけるジェンダーバイアスとNLPアプリケーションの伝達学習への影響について検討する。
我々は、バイアス分析のための多言語データセットを作成し、多言語表現におけるバイアスの定量化方法をいくつか提案する。
論文 参考訳(メタデータ) (2020-05-02T04:34:37Z) - Data Augmentation for Spoken Language Understanding via Pretrained
Language Models [113.56329266325902]
音声言語理解(SLU)モデルの訓練は、しばしばデータ不足の問題に直面している。
我々は,事前学習言語モデルを用いたデータ拡張手法を提案し,生成した発話の変動性と精度を向上した。
論文 参考訳(メタデータ) (2020-04-29T04:07:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。