論文の概要: The Unheard Alternative: Contrastive Explanations for Speech-to-Text Models
- arxiv url: http://arxiv.org/abs/2509.26543v1
- Date: Tue, 30 Sep 2025 17:17:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.63401
- Title: The Unheard Alternative: Contrastive Explanations for Speech-to-Text Models
- Title(参考訳): 音声とテキストのモデルに対する対照的な説明
- Authors: Lina Conti, Dennis Fucci, Marco Gaido, Matteo Negri, Guillaume Wisniewski, Luisa Bentivogli,
- Abstract要約: 対照的な説明は、AIシステムが他の(ホイル)ではなく1つの出力(ターゲット)を生成した理由を示している。
入力スペクトログラムの一部が代替出力の選択にどのように影響するかを分析することにより、S2Tにおけるコントラスト的な説明を得るための最初の方法を提案する。
我々の研究は、S2Tモデルをよりよく理解するための基盤を提供する。
- 参考スコア(独自算出の注目度): 25.126933196101703
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contrastive explanations, which indicate why an AI system produced one output (the target) instead of another (the foil), are widely regarded in explainable AI as more informative and interpretable than standard explanations. However, obtaining such explanations for speech-to-text (S2T) generative models remains an open challenge. Drawing from feature attribution techniques, we propose the first method to obtain contrastive explanations in S2T by analyzing how parts of the input spectrogram influence the choice between alternative outputs. Through a case study on gender assignment in speech translation, we show that our method accurately identifies the audio features that drive the selection of one gender over another. By extending the scope of contrastive explanations to S2T, our work provides a foundation for better understanding S2T models.
- Abstract(参考訳): 対照的な説明は、AIシステムが他の(ホイル)ではなく1つの出力(ターゲット)を生成した理由を示すもので、説明可能なAIは標準的な説明よりも情報的で解釈しやすいと広く見なされている。
しかし、音声テキスト生成モデル(S2T)のそのような説明を得ることは、未解決の課題である。
そこで本稿では,S2Tにおけるコントラスト的な説明を求める手法として,入力スペクトログラムの一部が代替出力の選択にどのように影響するかを分析する手法を提案する。
音声翻訳におけるジェンダー代入のケーススタディを通じて,別のジェンダーの選択を駆動する音声特徴を正確に識別する手法を示す。
対照的な説明の範囲を S2T に拡張することで、我々の研究は S2T モデルをよりよく理解するための基盤を提供する。
関連論文リスト
- Explaining Speech Classification Models via Word-Level Audio Segments
and Paralinguistic Features [35.31998003091635]
音声分類モデルを説明するための新しい手法を提案する。
入力摂動による2つの情報レベルの理解が容易な説明を生成する。
英語とイタリア語の2つの音声分類課題に対して、最先端の2つのSLUモデルを説明することによって、我々のアプローチを検証する。
論文 参考訳(メタデータ) (2023-09-14T14:12:34Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Selective Explanations: Leveraging Human Input to Align Explainable AI [40.33998268146951]
人間の入力を小さなサンプルに利用して選択的な説明を生成するための一般的なフレームワークを提案する。
事例として,意思決定支援タスクを用いて,意思決定者が決定タスクにどう関係するかに基づいて,選択的な説明を探索する。
我々の実験は、AIへの過度な依存を減らすための選択的な説明の可能性を実証している。
論文 参考訳(メタデータ) (2023-01-23T19:00:02Z) - INTERACTION: A Generative XAI Framework for Natural Language Inference
Explanations [58.062003028768636]
現在のXAIアプローチは、ひとつの説明を提供することにのみ焦点をあてています。
本稿では、生成型XAIフレームワーク、InterACTION(explaIn aNd predicT thEn queRy with contextuAl CondiTional variational autO-eNcoder)を提案する。
提案するフレームワークは,説明とラベル予測の2つのステップ,および(ステップ2)異種証拠生成の2つのステップで説明を行う。
論文 参考訳(メタデータ) (2022-09-02T13:52:39Z) - TranSpeech: Speech-to-Speech Translation With Bilateral Perturbation [61.564874831498145]
TranSpeechは、両側摂動を伴う音声から音声への翻訳モデルである。
我々は,非自己回帰S2ST手法を構築し,繰り返しマスキングを行い,単位選択を予測する。
TranSpeechは推論遅延を大幅に改善し、自動回帰技術よりも最大21.4倍のスピードアップを実現している。
論文 参考訳(メタデータ) (2022-05-25T06:34:14Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。