論文の概要: Towards Privacy-Preserving Machine Translation at the Inference Stage: A New Task and Benchmark
- arxiv url: http://arxiv.org/abs/2603.14756v1
- Date: Mon, 16 Mar 2026 02:41:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:36.00913
- Title: Towards Privacy-Preserving Machine Translation at the Inference Stage: A New Task and Benchmark
- Title(参考訳): 推論段階におけるプライバシ保護マシン翻訳に向けて:新しいタスクとベンチマーク
- Authors: Wei Shao, Lemao Liu, Yinqiao Li, Guoping Huang, Shuming Shi, Linqi Song,
- Abstract要約: 現在のオンライン翻訳サービスでは、ユーザテキストをクラウドサーバーに送信する必要がある。
本稿では,モデル推論段階におけるテキスト中のプライベート情報を保護することを目的とした,PPMT(Privacy-Preserving Machine Translation)タスクを提案する。
- 参考スコア(独自算出の注目度): 52.063283137654196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current online translation services require sending user text to cloud servers, posing a risk of privacy leakage when the text contains sensitive information. This risk hinders the application of online translation services in privacy-sensitive scenarios. One way to mitigate this risk for online translation services is introducing privacy protection mechanisms targeting the inference stage of translation models. However, compared to subfields of NLP like text classification and summarization, the machine translation research community has limited exploration of privacy protection during the inference stage. There is no clearly defined privacy protection task for the inference stage, dedicated evaluation datasets and metrics, and reference benchmark methods. The absence of these elements has seriously constrained researchers' in-depth exploration of this direction. To bridge this gap, this paper proposes a novel "Privacy-Preserving Machine Translation" (PPMT) task, aiming to protect the private information in text during the model inference stage. For this task, we constructed three benchmark test datasets, designed corresponding evaluation metrics, and proposed a series of benchmark methods as a starting point for this task. The definition of privacy is complex and diverse. Considering that named entities often contain a large amount of personal privacy and commercial secrets, we have focused our research on protecting only the named entity's privacy in the text. We expect this research work will provide a new perspective and a solid foundation for the privacy protection problem in machine translation.
- Abstract(参考訳): 現在のオンライン翻訳サービスでは、ユーザテキストをクラウドサーバーに送信する必要がある。
このリスクは、プライバシーに敏感なシナリオにおけるオンライン翻訳サービスの応用を妨げる。
オンライン翻訳サービスのリスクを軽減する一つの方法は、翻訳モデルの推論段階をターゲットにしたプライバシー保護メカニズムを導入することである。
しかし、テキスト分類や要約のようなNLPのサブフィールドと比較して、機械翻訳研究コミュニティは推論段階でのプライバシ保護を限定的に探究している。
推論ステージ、専用の評価データセットとメトリクス、参照ベンチマークメソッドのための明確なプライバシ保護タスクはありません。
これらの要素の欠如は、研究者によるこの方向の詳細な探査を厳しく制約している。
このギャップを埋めるために,本論文では,モデル推論段階において,テキスト中のプライベート情報を保護することを目的とした,新しいPPMTタスクを提案する。
そこで我々は,3つのベンチマークテストデータセットを構築し,対応する評価指標を設計し,一連のベンチマーク手法を課題の出発点として提案した。
プライバシーの定義は複雑で多様である。
名前付きエンティティは、しばしば大量の個人のプライバシと商業機密を含んでいることを考えると、私たちは、名前付きエンティティのプライバシのみをテキストで保護することに集中しています。
この研究は、機械翻訳におけるプライバシー保護問題に対する、新たな視点と確固たる基盤を提供することを期待している。
関連論文リスト
- How do we measure privacy in text? A survey of text anonymization metrics [14.08328402597163]
本研究では,テキストにおけるプライバシ保護を評価するための指標を,体系的な調査によって明らかにし,検討することを目的とする。
6つの異なるプライバシー概念を特定し比較し、関連するメトリクスがどのように異なるプライバシーリスクの側面を捉えているかを分析する。
論文 参考訳(メタデータ) (2025-11-30T22:12:30Z) - The Double-edged Sword of LLM-based Data Reconstruction: Understanding and Mitigating Contextual Vulnerability in Word-level Differential Privacy Text Sanitization [53.51921540246166]
我々は,言語大モデル (LLM) がDP対応テキストの文脈的脆弱性を活用可能であることを示す。
LLM再建の二重刃剣効果がプライバシーと実用性に与える影響を実験的に明らかにした。
本稿では,データ再構成を後処理のステップとして使用するための推奨事項を提案する。
論文 参考訳(メタデータ) (2025-08-26T12:22:45Z) - Token-Level Privacy in Large Language Models [7.4143291213663955]
本稿では,文脈情報と意味情報を統合するトークンレベルの新しいプライバシ保護機構であるdchi-stencilを紹介する。
意味的ニュアンスと文脈的ニュアンスの両方を取り入れることで、dchi-stencilはプライバシとユーティリティの堅牢なバランスを実現する。
この研究は、現代の高リスクアプリケーションにおけるプライバシ保護NLPの新しい標準を設定するためのdchi-stencilの可能性を強調している。
論文 参考訳(メタデータ) (2025-03-05T16:27:25Z) - Privacy-Preserving Language Model Inference with Instance Obfuscation [33.86459812694288]
言語モデル・アズ・ア・サービス(LM)は、開発者や研究者が事前訓練された言語モデルを使用して推論を行うための便利なアクセスを提供する。
入力データとプライベート情報を含む推論結果は、サービスコール中にプレーンテキストとして公開され、プライバシー上の問題が発生する。
本稿では,自然言語理解タスクにおける決定プライバシ問題に対処することに焦点を当てた,インスタンス・オブフルスケート推論(IOI)手法を提案する。
論文 参考訳(メタデータ) (2024-02-13T05:36:54Z) - Making Translators Privacy-aware on the User's Side [17.912507269030577]
我々はPRISMを提案し、機械翻訳システムの利用者が自身のイニシアチブでデータのプライバシーを維持することができるようにした。
PRISMは、翻訳精度を著しく損なうことなく、プライバシー機能を追加する。
論文 参考訳(メタデータ) (2023-12-07T06:23:17Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - PLUE: Language Understanding Evaluation Benchmark for Privacy Policies
in English [77.79102359580702]
プライバシポリシ言語理解評価ベンチマークは,プライバシポリシ言語理解を評価するマルチタスクベンチマークである。
また、プライバシポリシの大規模なコーパスを収集し、プライバシポリシドメイン固有の言語モデル事前トレーニングを可能にします。
ドメイン固有の連続的な事前トレーニングは、すべてのタスクでパフォーマンスを改善することを実証します。
論文 参考訳(メタデータ) (2022-12-20T05:58:32Z) - Semantics-Preserved Distortion for Personal Privacy Protection in Information Management [65.08939490413037]
本稿では,意味的整合性を維持しつつテキストを歪ませる言語学的アプローチを提案する。
本稿では, 意味保存歪みの枠組みとして, 生成的アプローチと置換的アプローチの2つを提示する。
また、特定の医療情報管理シナリオにおけるプライバシ保護についても検討し、機密データの記憶を効果的に制限していることを示す。
論文 参考訳(メタデータ) (2022-01-04T04:01:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。