論文の概要: Privacy-Preserving Domain Adaptation of Semantic Parsers
- arxiv url: http://arxiv.org/abs/2212.10520v3
- Date: Thu, 8 Jun 2023 18:03:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-12 17:56:04.291247
- Title: Privacy-Preserving Domain Adaptation of Semantic Parsers
- Title(参考訳): セマンティックパーサーのプライバシー保護ドメイン適応
- Authors: Fatemehsadat Mireshghallah, Yu Su, Tatsunori Hashimoto, Jason Eisner,
Richard Shin
- Abstract要約: 本稿では,まず潜在意味構文を生成し,その解析結果に基づいて発話を生成する2段階微分プライベート(DP)生成手法を提案する。
提案手法はMAUVEを2.5$times$で改善し,解析木関数の型を1.3$times$でオーバーラップする。
- 参考スコア(独自算出の注目度): 44.266262213139534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Task-oriented dialogue systems often assist users with personal or
confidential matters. For this reason, the developers of such a system are
generally prohibited from observing actual usage. So how can they know where
the system is failing and needs more training data or new functionality? In
this work, we study ways in which realistic user utterances can be generated
synthetically, to help increase the linguistic and functional coverage of the
system, without compromising the privacy of actual users. To this end, we
propose a two-stage Differentially Private (DP) generation method which first
generates latent semantic parses, and then generates utterances based on the
parses. Our proposed approach improves MAUVE by 2.5$\times$ and parse tree
function type overlap by 1.3$\times$ relative to current approaches for private
synthetic data generation, improving both on fluency and semantic coverage. We
further validate our approach on a realistic domain adaptation task of adding
new functionality from private user data to a semantic parser, and show overall
gains of 8.5% points in accuracy with the new feature.
- Abstract(参考訳): タスク指向の対話システムは、ユーザー個人や機密事項を補助することが多い。
そのため、一般にそのようなシステムの開発者は実際の使用を観察することを禁じられている。
では、システム障害の所在をどうやって把握し、より多くのトレーニングデータや新機能が必要ですか?
本研究では,実際のユーザのプライバシーを損なうことなく,現実的なユーザ発話を合成的に生成し,システムの言語的・機能的カバレッジを向上させる方法について検討する。
そこで本研究では,まず潜在意味構文を生成し,その解析結果に基づいて発話を生成する2段階微分プライベート(DP)生成手法を提案する。
提案手法はmauveを2.5$\times$,パースツリー関数型を1.3$\times$,プライベート合成データ生成に対して1.3$\times$で改善する。
さらに,ユーザデータからセマンティクスパーサに新たな機能を追加する現実的なドメイン適応タスクに対する我々のアプローチを検証し,新機能により8.5%の精度向上を示す。
関連論文リスト
- IDT: Dual-Task Adversarial Attacks for Privacy Protection [8.312362092693377]
プライバシを保護するには、センシティブな属性を検出できないモデル内の表現を使用する必要がある。
補助的および解釈可能なモデルによる予測を分析し,どのトークンが変更に重要かを識別する手法であるIDTを提案する。
我々は、異なるタスクに適したNLPのための異なるデータセットを評価する。
論文 参考訳(メタデータ) (2024-06-28T04:14:35Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Learn What You Need in Personalized Federated Learning [53.83081622573734]
$textitLearn2pFed$は、アルゴリズムに基づくパーソナライズされたフェデレーション学習フレームワークである。
我々は、textitLearn2pFed$が、従来のパーソナライズされたフェデレーション学習方法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-01-16T12:45:15Z) - When approximate design for fast homomorphic computation provides
differential privacy guarantees [0.08399688944263842]
差分プライバシー(DP)と暗号プリミティブは、プライバシー攻撃に対する一般的な対策である。
本稿では,argmax演算子に対する確率近似アルゴリズム ShiELD を設計する。
たとえShielDが他のアプリケーションを持つことができたとしても、私たちは1つの設定に集中し、SPEEDコラボレーティブトレーニングフレームワークにシームレスに統合します。
論文 参考訳(メタデータ) (2023-04-06T09:38:01Z) - FedPC: Federated Learning for Language Generation with Personal and
Context Preference Embeddings [10.235620939242505]
フェデレーション学習(Federated Learning)は、集中型サーバにデータを集約することなく、複数の分散ユーザから学習するトレーニングパラダイムである。
我々は,個人埋め込みと共有コンテキスト埋め込みの両面を活用した,フェデレートラーニングにおけるパーソナライズ研究の新しい方向性を提案する。
本稿では,これらの嗜好の埋め込みを予測し,バックプロパゲーションを伴わないパーソナライズを可能にするアプローチを提案する。
論文 参考訳(メタデータ) (2022-10-07T18:01:19Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - On The Ingredients of an Effective Zero-shot Semantic Parser [95.01623036661468]
我々は、標準発話とプログラムの訓練例を文法から言い換えて、ゼロショット学習を分析する。
改良された文法,より強力なパラフレーズ,効率的な学習手法を用いて,これらのギャップを埋めることを提案する。
我々のモデルはラベル付きデータゼロの2つの意味解析ベンチマーク(Scholar, Geo)で高い性能を達成する。
論文 参考訳(メタデータ) (2021-10-15T21:41:16Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - An Imitation Game for Learning Semantic Parsers from User Interaction [43.66945504686796]
ユーザから直接セマンティックアノテーションを学習するための代替手段として,Human-in-the-loop法を提案する。
セマンティクスはイントロスペクティブで、不確実な場合にはユーザデモをプロンプトする必要がある。
そうすることで、ユーザの振る舞いを模倣し、自らを自律的に改善し続けます。
論文 参考訳(メタデータ) (2020-05-02T03:30:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。