論文の概要: "Alexa, can you forget me?" Machine Unlearning Benchmark in Spoken Language Understanding
- arxiv url: http://arxiv.org/abs/2505.15700v1
- Date: Wed, 21 May 2025 16:13:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.768854
- Title: "Alexa, can you forget me?" Machine Unlearning Benchmark in Spoken Language Understanding
- Title(参考訳): 「Alexa、忘れられるか?」音声言語理解における機械学習ベンチマーク
- Authors: Alkis Koudounas, Claudio Savelli, Flavio Giobergia, Elena Baralis,
- Abstract要約: UnSLU-BENCHは、音声言語理解における機械学習のための最初のベンチマークである。
我々は、特定の話者からのデータの未学習を、潜在的な"忘れられる権利"要求の品質を評価する方法として扱う。
- 参考スコア(独自算出の注目度): 7.929706348572891
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Machine unlearning, the process of efficiently removing specific information from machine learning models, is a growing area of interest for responsible AI. However, few studies have explored the effectiveness of unlearning methods on complex tasks, particularly speech-related ones. This paper introduces UnSLU-BENCH, the first benchmark for machine unlearning in spoken language understanding (SLU), focusing on four datasets spanning four languages. We address the unlearning of data from specific speakers as a way to evaluate the quality of potential "right to be forgotten" requests. We assess eight unlearning techniques and propose a novel metric to simultaneously better capture their efficacy, utility, and efficiency. UnSLU-BENCH sets a foundation for unlearning in SLU and reveals significant differences in the effectiveness and computational feasibility of various techniques.
- Abstract(参考訳): 機械学習モデルから特定の情報を効率的に除去するプロセスである機械学習は、責任あるAIに対する関心が高まっている。
しかし、複雑なタスク、特に音声関連タスクにおける未学習手法の有効性を調査する研究はほとんどない。
本稿では,4言語にまたがる4つのデータセットに着目し,音声言語理解(SLU)における機械学習のための最初のベンチマークUnSLU-BENCHを紹介する。
我々は、特定の話者からのデータの未学習を、潜在的な"忘れられる権利"要求の品質を評価する方法として扱う。
我々は,8つの非学習手法を評価し,その有効性,有用性,効率性を同時に把握するための新しい指標を提案する。
UnSLU-BENCHは、SLUにおけるアンラーニングの基礎を定め、様々な技術の有効性と計算可能性に大きな違いを明らかにしている。
関連論文リスト
- A Comprehensive Review on Understanding the Decentralized and Collaborative Approach in Machine Learning [0.0]
機械学習(ML)の登場によって、データから貴重な情報をアンロックする方法は完全に変わりました。
すべてをひとつの場所に格納する従来の手法は、情報を非公開にし、大量のデータを処理し、不公平な優位性を避けるという大きな問題を抱えていた。
私たちは、分散機械学習とそのメリット、例えば、データのプライベート化、回答の高速化、さまざまなデータソースの使用などについて検討しました。
医療と金融の現実的な例は、情報セキュリティを守りながら、コラボレーション機械学習が重要な問題を解決する方法を示すために使用された。
論文 参考訳(メタデータ) (2025-03-12T20:54:22Z) - A Closer Look at Machine Unlearning for Large Language Models [46.245404272612795]
大型言語モデル(LLM)は機密または著作権のあるコンテンツを記憶し、プライバシーと法的懸念を高める。
LLMの機械学習におけるいくつかの問題について議論し、可能なアプローチについての洞察を提供する。
論文 参考訳(メタデータ) (2024-10-10T16:56:05Z) - Learn while Unlearn: An Iterative Unlearning Framework for Generative Language Models [52.03511469562013]
3つのコアコンポーネントで構成されるICU(Iterative Contrastive Unlearning)フレームワークを紹介する。
知識未学習誘導モジュールは、未学習の損失を使用して、特定の知識を除去するためにターゲットとする。
Contrastive Learning Enhancementモジュールは、純粋な未学習の目標に対してモデルの表現力を保持する。
イテレーティブ・アンラーニング・リファインメントモジュールは、進行中の評価と更新を通じて、アンラーニングプロセスを動的に調整する。
論文 参考訳(メタデータ) (2024-07-25T07:09:35Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Spoken Language Intelligence of Large Language Models for Language Learning [3.1964044595140217]
教育分野における大規模言語モデル(LLM)の有効性を評価することに注力する。
上記のシナリオにおけるLLMの有効性を評価するために,新しい複数選択質問データセットを提案する。
また,ゼロショット法や少数ショット法など,様々なプロンプト技術の影響についても検討する。
異なる大きさのモデルは、音韻学、音韻学、第二言語習得の概念をよく理解しているが、実世界の問題に対する推論には限界がある。
論文 参考訳(メタデータ) (2023-08-28T12:47:41Z) - A Survey of Learning on Small Data: Generalization, Optimization, and
Challenge [101.27154181792567]
ビッグデータの一般化能力を近似した小さなデータについて学ぶことは、AIの究極の目的の1つである。
この調査はPACフレームワークの下でのアクティブサンプリング理論に従い、小さなデータにおける学習の一般化誤差とラベルの複雑さを分析した。
効率的な小さなデータ表現の恩恵を受けるかもしれない複数のデータアプリケーションについて調査する。
論文 参考訳(メタデータ) (2022-07-29T02:34:19Z) - Intent Classification Using Pre-Trained Embeddings For Low Resource
Languages [67.40810139354028]
言語固有の音声認識に依存しない音声理解システムを構築することは、言語処理において重要でない問題である。
本稿では,事前学習した音響モデルを用いて,低資源シナリオにおける音声言語理解を実現するための比較研究を提案する。
私たちは、ハイ、ミディアム、低リソースシナリオをシミュレートするために、それぞれ異なるデータサイズを持つ英語、Sinhala、Tamilの3つの異なる言語で実験を行います。
論文 参考訳(メタデータ) (2021-10-18T13:06:59Z) - Learning by Ignoring, with Application to Domain Adaptation [10.426533624387305]
学習を無視する学習(LBI)と呼ばれる新しい機械学習フレームワークを提案する。
本フレームワークは,各サンプルの無視変数を学習することにより,対象の分布から大きなドメインシフトを持つ事前学習データ例を自動的に識別し,事前学習プロセスから除外する。
LBIの3レベル最適化問題を効率よく解くために勾配に基づくアルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-12-28T15:33:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。