論文の概要: Trustera: A Live Conversation Redaction System
- arxiv url: http://arxiv.org/abs/2303.09438v1
- Date: Thu, 16 Mar 2023 16:13:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 14:45:53.219701
- Title: Trustera: A Live Conversation Redaction System
- Title(参考訳): Trustera: ライブ会話のリアクションシステム
- Authors: Evandro Gouv\^ea, Ali Dadgar, Shahab Jalalvand, Rathi Chengalvarayan,
Badrinath Jayakumar, Ryan Price, Nicholas Ruiz, Jennifer McGovern, Srinivas
Bangalore, Ben Stern
- Abstract要約: Trusteraは、個人識別可能な情報(PII)をリアルタイムで会話する最初のシステムである。
コール後のリアクションとは対照的に、音声マスキングは、顧客がPIIエンティティに話しかけ始めるとすぐに開始される。
Trusteraは現在、何千ものエージェントが顧客の機密情報を保護するために使用しています。
- 参考スコア(独自算出の注目度): 7.851135795536094
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Trustera, the first functional system that redacts personally identifiable
information (PII) in real-time spoken conversations to remove agents' need to
hear sensitive information while preserving the naturalness of live
customer-agent conversations. As opposed to post-call redaction, audio masking
starts as soon as the customer begins speaking to a PII entity. This
significantly reduces the risk of PII being intercepted or stored in insecure
data storage. Trustera's architecture consists of a pipeline of automatic
speech recognition, natural language understanding, and a live audio redactor
module. The system's goal is three-fold: redact entities that are PII, mask the
audio that goes to the agent, and at the same time capture the entity, so that
the captured PII can be used for a payment transaction or caller
identification. Trustera is currently being used by thousands of agents to
secure customers' sensitive information.
- Abstract(参考訳): trusteraは、個人識別可能な情報(pii)をリアルタイムの会話で再現し、エージェントがセンシティブな情報を聞く必要をなくし、顧客とエージェントの会話の自然さを保った最初の機能システムである。
コール後のリアクションとは対照的に、顧客がPIIエンティティに話しかけ始めると、オーディオマスキングが始まる。
これにより、PIIがインターセプトされたり、安全でないデータストレージに格納されたりするリスクが大幅に低減される。
Trusteraのアーキテクチャは、音声認識、自然言語理解、ライブオーディオ再実行モジュールからなる。
システムの目的は3つある: PII であるエンティティを再実行し、エージェントに渡されるオーディオを隠蔽し、同時にエンティティをキャプチャし、取得した PII を支払いトランザクションや呼び出し元識別に使用できる。
trusteraは現在、何千ものエージェントが顧客の機密情報を確保するために使用しています。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Conversational Rubert for Detecting Competitive Interruptions in ASR-Transcribed Dialogues [0.6138671548064356]
割り込みを自動的に分類するシステムは、コールセンター、特に顧客満足度モニタリングとエージェントモニタリングのタスクで利用することができる。
我々は、ASRで書き起こされた顧客サポート電話対話からなる社内データセットをロシア語で作成し、テキストベースの割り込み分類モデルを開発した。
論文 参考訳(メタデータ) (2024-07-20T17:25:53Z) - Text-Based Detection of On-Hold Scripts in Contact Center Calls [0.6138671548064356]
平均保持時間は、顧客満足度に影響を与えるため、コールセンターにとって懸念事項である。
本研究では,自動音声認識技術により書き起こされたカスタマーサービスコールのオンホールドフレーズを検出する自然言語処理モデルを提案する。
論文 参考訳(メタデータ) (2024-07-13T11:11:41Z) - Empowering Whisper as a Joint Multi-Talker and Target-Talker Speech Recognition System [73.34663391495616]
本稿では,複数話者と目標話者の音声認識タスクを併用する先駆的手法を提案する。
具体的には、Whisperを凍結し、Sidecarセパレータをエンコーダに差し込み、複数の話者に対する混合埋め込みを分離する。
AishellMix Mandarin データセット上で,マルチストーカー ASR 上で許容できるゼロショット性能を提供する。
論文 参考訳(メタデータ) (2024-07-13T09:28:24Z) - Communication-Efficient Personalized Federated Learning for
Speech-to-Text Tasks [66.78640306687227]
プライバシー保護と法的規制を満たすために、連邦学習(FL)は、音声テキスト(S2T)システムのトレーニングにおいて大きな注目を集めている。
S2Tタスクで一般的に使用されるFLアプローチ(textscFedAvg)は、通常、広範な通信オーバーヘッドに悩まされる。
我々は、クライアント側チューニングとサーバとのインタラクションのための軽量なLoRAモジュールであるtextscFedLoRA と、$k$-near を備えたグローバルモデルである textscFedMem を導入したパーソナライズされたS2Tフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-18T15:39:38Z) - One model to rule them all ? Towards End-to-End Joint Speaker
Diarization and Speech Recognition [50.055765860343286]
本稿では,共同話者ダイアリゼーションと音声認識のための新しい枠組みを提案する。
このフレームワークはSLIDARと呼ばれ、任意の長さの入力を処理でき、任意の数の話者を処理できる。
AMIコーパスからの単調録音実験により, 近接話者と遠距離話者の両方の発話シナリオにおける手法の有効性が確認された。
論文 参考訳(メタデータ) (2023-10-02T23:03:30Z) - Are disentangled representations all you need to build speaker
anonymization systems? [0.0]
音声信号には、話者のアイデンティティなど、多くの機密情報が含まれている。
話者匿名化は、音源話者の身元をそのまま残しながら、音声信号を変換し、音源話者の身元を除去することを目的としている。
論文 参考訳(メタデータ) (2022-08-22T07:51:47Z) - Differentially Private Speaker Anonymization [44.90119821614047]
実世界の発話を共有することが、音声ベースのサービスのトレーニングと展開の鍵となる。
話者匿名化は、言語的および韻律的属性をそのまま残しながら、発話から話者情報を除去することを目的としている。
言語的属性と韻律的属性は依然として話者情報を含んでいる。
論文 参考訳(メタデータ) (2022-02-23T23:20:30Z) - Streaming Multi-talker Speech Recognition with Joint Speaker
Identification [77.46617674133556]
SURITは、音声認識と話者識別の両方のバックボーンとして、リカレントニューラルネットワークトランスデューサ(RNN-T)を採用しています。
Librispeechから派生したマルチストーカーデータセットであるLibrispeechデータセットに関するアイデアを検証し、奨励的な結果を提示した。
論文 参考訳(メタデータ) (2021-04-05T18:37:33Z) - Speaker De-identification System using Autoencoders and Adversarial
Training [58.720142291102135]
本稿では,対人訓練とオートエンコーダに基づく話者識別システムを提案する。
実験結果から, 対向学習とオートエンコーダを組み合わせることで, 話者検証システムの誤り率が同等になることがわかった。
論文 参考訳(メタデータ) (2020-11-09T19:22:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。