論文の概要: A Review of Speech-centric Trustworthy Machine Learning: Privacy,
Safety, and Fairness
- arxiv url: http://arxiv.org/abs/2212.09006v2
- Date: Sun, 16 Apr 2023 10:08:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 21:30:34.074145
- Title: A Review of Speech-centric Trustworthy Machine Learning: Privacy,
Safety, and Fairness
- Title(参考訳): 音声中心の信頼できる機械学習:プライバシ、安全性、公正性
- Authors: Tiantian Feng and Rajat Hebbar and Nicholas Mehlman and Xuan Shi and
Aditya Kommineni and and Shrikanth Narayanan
- Abstract要約: 音声中心の機械学習システムは、交通、医療、教育、防衛など、多くの主要な領域に革命をもたらした。
近年の研究では、多くの音声中心のMLシステムは、より広範なデプロイメントにおいてより信頼できるものとみなす必要があることが示されている。
- 参考スコア(独自算出の注目度): 27.060997793670033
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Speech-centric machine learning systems have revolutionized many leading
domains ranging from transportation and healthcare to education and defense,
profoundly changing how people live, work, and interact with each other.
However, recent studies have demonstrated that many speech-centric ML systems
may need to be considered more trustworthy for broader deployment.
Specifically, concerns over privacy breaches, discriminating performance, and
vulnerability to adversarial attacks have all been discovered in ML research
fields. In order to address the above challenges and risks, a significant
number of efforts have been made to ensure these ML systems are trustworthy,
especially private, safe, and fair. In this paper, we conduct the first
comprehensive survey on speech-centric trustworthy ML topics related to
privacy, safety, and fairness. In addition to serving as a summary report for
the research community, we point out several promising future research
directions to inspire the researchers who wish to explore further in this area.
- Abstract(参考訳): 音声中心の機械学習システムは、交通、医療、教育、防衛など、多くの主要な分野に革命をもたらし、人々の生活、働き方、相互作用の仕方を大きく変えた。
しかし、近年の研究では、多くの音声中心のMLシステムはより広範な展開に適していると考えられる必要があることが示されている。
具体的には、プライバシ侵害、パフォーマンスの識別、敵の攻撃に対する脆弱性に関する懸念が、すべてML研究分野で発見されている。
上記の課題とリスクに対処するために、これらのMLシステムが信頼性、特にプライベート、セーフ、フェアであることを保証するために、かなりの数の努力がなされている。
本稿では、プライバシ、安全性、公正性に関連する音声中心の信頼できるMLトピックに関する総合的な調査を行う。
研究コミュニティの要約としての役割に加えて,この領域でさらなる研究を希望する研究者に刺激を与える,将来有望な研究の方向性を指摘する。
関連論文リスト
- A Survey of Privacy-Preserving Model Explanations: Privacy Risks, Attacks, and Countermeasures [50.987594546912725]
AIのプライバシと説明可能性に関する研究が増えているにもかかわらず、プライバシを保存するモデル説明にはほとんど注意が払われていない。
本稿では,モデル説明に対するプライバシ攻撃とその対策に関する,最初の徹底的な調査を紹介する。
論文 参考訳(メタデータ) (2024-03-31T12:44:48Z) - Securing Large Language Models: Threats, Vulnerabilities and Responsible Practices [4.927763944523323]
大規模言語モデル(LLM)は、自然言語処理(NLP)のランドスケープを大きく変えた。
本研究は,5つのテーマの観点から,LLMに関するセキュリティとプライバシの懸念を徹底的に調査する。
本稿は, LLMの安全性とリスク管理を強化するために, 今後の研究に期待できる道筋を提案する。
論文 参考訳(メタデータ) (2024-03-19T07:10:58Z) - Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [67.38554763406098]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、安全を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - Security and Privacy Challenges of Large Language Models: A Survey [2.9480813253164535]
LLM(Large Language Models)は、テキストの生成や要約、言語翻訳、質問応答など、非常に優れた機能を示し、複数の分野に貢献している。
これらのモデルは、Jailbreak攻撃、データ中毒攻撃、Personally Identible Information(PII)漏洩攻撃など、セキュリティやプライバシ攻撃にも脆弱である。
この調査では、トレーニングデータとユーザの両方に対するLLMのセキュリティとプライバシの課題と、輸送、教育、医療といったさまざまな領域におけるアプリケーションベースのリスクについて、徹底的にレビューする。
論文 参考訳(メタデータ) (2024-01-30T04:00:54Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models
via Contextual Integrity Theory [86.8514623654506]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Privacy and Fairness in Federated Learning: on the Perspective of
Trade-off [58.204074436129716]
フェデレートラーニング(FL)は近年ホットな話題となっている。
2つの重要な倫理的概念として、プライバシと公平性の相互作用は比較的研究されていない。
論文 参考訳(メタデータ) (2023-06-25T04:38:19Z) - New Challenges in Reinforcement Learning: A Survey of Security and
Privacy [26.706957408693363]
強化学習(Reinforcement Learning, RL)は、AIの最も重要な分野のひとつ。
RLは医療、データ市場、自動運転、ロボット工学など、さまざまな分野で広く採用されている。
これらのアプリケーションやシステムは、セキュリティやプライバシ攻撃に弱いことが示されている。
論文 参考訳(メタデータ) (2022-12-31T12:30:43Z) - Membership Inference Attacks Against Self-supervised Speech Models [62.73937175625953]
連続音声における自己教師付き学習(SSL)が注目されている。
ブラックボックスアクセス下でのMIA(Commanship Inference Attacks)を用いたSSL音声モデルに対する最初のプライバシ分析を行う。
論文 参考訳(メタデータ) (2021-11-09T13:00:24Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Federated Crowdsensing: Framework and Challenges [20.110862329289272]
クラウドセンシングは、スマートシティアプリケーションにとって有望なセンシングパラダイムである。
プライバシー保護は、クラウドセンシングシステムにおける重要な問題の1つだ。
本稿では,各クラウドセンシング段階のプライバシー問題を分析する,連合型クラウドセンシングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-06T06:49:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。