論文の概要: Private Meeting Summarization Without Performance Loss
- arxiv url: http://arxiv.org/abs/2305.15894v1
- Date: Thu, 25 May 2023 09:48:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 16:07:56.052528
- Title: Private Meeting Summarization Without Performance Loss
- Title(参考訳): パフォーマンス損失のないプライベートミーティング要約
- Authors: Seolhwa Lee, Anders S{\o}gaard
- Abstract要約: 差分プライバシー制約下での要約に直面する問題について検討する。
差分プライバシは、見当たらないミーティングタイプで評価するとパフォーマンスが向上することがわかった。
実際の業務シナリオでは, 会議のまとめ方式が多種多様な会議タイプに遭遇するので, この観察により, 安全な会議のまとめがより実現可能であるように思われる。
- 参考スコア(独自算出の注目度): 0.33842793760651557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Meeting summarization has an enormous business potential, but in addition to
being a hard problem, roll-out is challenged by privacy concerns. We explore
the problem of meeting summarization under differential privacy constraints and
find, to our surprise, that while differential privacy leads to slightly lower
performance on in-sample data, differential privacy improves performance when
evaluated on unseen meeting types. Since meeting summarization systems will
encounter a great variety of meeting types in practical employment scenarios,
this observation makes safe meeting summarization seem much more feasible. We
perform extensive error analysis and identify potential risks in meeting
summarization under differential privacy, including a faithfulness analysis.
- Abstract(参考訳): ミーティングの要約はビジネス上の大きな可能性があるが、難しい問題であることに加えて、ロールアウトにはプライバシの懸念がある。
差分プライバシー制約下での要約の達成の問題を探り、驚いたことに、差分プライバシはサンプル内データの性能をわずかに低下させるが、差分プライバシは見当たらないミーティングタイプで評価すると性能を改善する。
実際の業務シナリオにおいて, 会議要約システムには, 様々な種類の会議タイプが生じるので, 安全な会議要約が実現可能であると考えられる。
我々は広範囲な誤り分析を行い、信頼度分析を含む差分プライバシー下でのミーティング要約における潜在的なリスクを特定する。
関連論文リスト
- Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - An applied Perspective: Estimating the Differential Identifiability Risk of an Exemplary SOEP Data Set [2.66269503676104]
基本的統計的クエリの集合に対して,リスクメトリックを効率的に計算する方法を示す。
実世界の科学的データセットに基づいた実証分析は、現実的な条件下でのリスクの計算方法に関する知識を拡大します。
論文 参考訳(メタデータ) (2024-07-04T17:50:55Z) - Privacy Risks of General-Purpose AI Systems: A Foundation for Investigating Practitioner Perspectives [47.17703009473386]
強力なAIモデルによって、幅広いタスクでパフォーマンスが飛躍的に向上した。
プライバシの懸念は、さまざまなプライバシのリスクとAIモデルの脆弱性をカバーした、豊富な文献につながっている。
我々はこれらの調査論文の体系的なレビューを行い、GPAISにおけるプライバシーリスクの簡潔かつ有用な概観を提供する。
論文 参考訳(メタデータ) (2024-07-02T07:49:48Z) - The Curse of Diversity in Ensemble-Based Exploration [7.209197316045156]
データ共有エージェントの多様なアンサンブルの訓練は、個々のアンサンブルメンバーのパフォーマンスを著しく損なう可能性がある。
私たちはこの現象を多様性の呪いと呼んでいる。
多様性の呪いに対処する表現学習の可能性を示す。
論文 参考訳(メタデータ) (2024-05-07T14:14:50Z) - A Summary of Privacy-Preserving Data Publishing in the Local Setting [0.6749750044497732]
統計開示制御は、機密情報を匿名化して暴露するリスクを最小限にすることを目的としている。
マイクロデータの復号化に使用される現在のプライバシ保存技術について概説し、様々な開示シナリオに適したプライバシ対策を掘り下げ、情報損失と予測性能の指標を評価する。
論文 参考訳(メタデータ) (2023-12-19T04:23:23Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - On the Statistical Complexity of Estimation and Testing under Privacy Constraints [17.04261371990489]
差分プライバシー下での統計的テストのパワーをプラグアンドプレイ方式で特徴付ける方法を示す。
プライバシ保護のレベルが非常に高い場合にのみ、プライバシの維持が顕著なパフォーマンス低下をもたらすことを示す。
最後に,プライベート凸解法であるDP-SGLDアルゴリズムを高信頼度で最大推定できることを示した。
論文 参考訳(メタデータ) (2022-10-05T12:55:53Z) - The Impact of Differential Privacy on Group Disparity Mitigation [28.804933301007644]
差分プライバシーが4つのタスクの公平性に与える影響を評価する。
私たちは、経験的リスク最小化を伴う$(varepsilon,delta)$-differentially privateモデルをトレーニングします。
基本設定におけるグループ間性能差は,差分プライバシが増加することが判明した。
しかし、差分プライバシーは、ロバストな設定におけるグループ間のパフォーマンス差を減少させる。
論文 参考訳(メタデータ) (2022-03-05T13:55:05Z) - Differential Privacy and Fairness in Decisions and Learning Tasks: A
Survey [50.90773979394264]
プライバシーと公正が目標と一致したり、対照的になったりした条件をレビューする。
意思決定問題や学習タスクにおいて、DPが偏見や不公平を悪化させる理由と理由を分析します。
論文 参考訳(メタデータ) (2022-02-16T16:50:23Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Applications of Differential Privacy in Social Network Analysis: A
Survey [60.696428840516724]
差別化プライバシは、情報を共有し、強力な保証でプライバシを保存するのに有効である。
ソーシャルネットワーク分析は多くのアプリケーションで広く採用されており、差分プライバシーの応用のための新たな領域が開かれた。
論文 参考訳(メタデータ) (2020-10-06T19:06:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。