論文の概要: Tessellated Linear Model for Age Prediction from Voice
- arxiv url: http://arxiv.org/abs/2501.09229v1
- Date: Thu, 16 Jan 2025 01:28:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-17 15:08:46.743908
- Title: Tessellated Linear Model for Age Prediction from Voice
- Title(参考訳): 音声からの年齢予測のためのテセル付き線形モデル
- Authors: Dareen Alharthi, Mahsa Zamani, Bhiksha Raj, Rita Singh,
- Abstract要約: Tessellated Linear Model (TLM) は、線形モデルの単純さと非線形関数のキャパシティを組み合わせた一括線形アプローチである。
TIMITデータセットを用いた音声から年齢予測を行い,その精度は最先端のディープラーニングモデルよりも優れていた。
- 参考スコア(独自算出の注目度): 29.0093388690853
- License:
- Abstract: Voice biometric tasks, such as age estimation require modeling the often complex relationship between voice features and the biometric variable. While deep learning models can handle such complexity, they typically require large amounts of accurately labeled data to perform well. Such data are often scarce for biometric tasks such as voice-based age prediction. On the other hand, simpler models like linear regression can work with smaller datasets but often fail to generalize to the underlying non-linear patterns present in the data. In this paper we propose the Tessellated Linear Model (TLM), a piecewise linear approach that combines the simplicity of linear models with the capacity of non-linear functions. TLM tessellates the feature space into convex regions and fits a linear model within each region. We optimize the tessellation and the linear models using a hierarchical greedy partitioning. We evaluated TLM on the TIMIT dataset on the task of age prediction from voice, where it outperformed state-of-the-art deep learning models.
- Abstract(参考訳): 年齢推定のような音声生体計測タスクは、しばしば音声特徴と生体変数の間の複雑な関係をモデル化する必要がある。
ディープラーニングモデルはそのような複雑さに対処できるが、通常、うまく機能するために大量の正確なラベル付きデータを必要とする。
このようなデータは、音声による年齢予測のようなバイオメトリックなタスクには不足することが多い。
一方、線形回帰のような単純なモデルは、より小さなデータセットで機能するが、しばしばデータに存在する根底にある非線形パターンに一般化できない。
本稿では,線形モデルの単純さと非線形関数のキャパシティを結合した線形手法であるTessellated Linear Model (TLM)を提案する。
TLMは特徴空間を凸領域にテセルレートし、各領域内の線形モデルに適合する。
階層的なグリード分割を用いたテッセルレーションと線形モデルの最適化を行う。
TIMITデータセットを用いた音声から年齢予測を行い,TLMは最先端のディープラーニングモデルよりも優れていた。
関連論文リスト
- Generating Realistic Tabular Data with Large Language Models [49.03536886067729]
大規模言語モデル(LLM)は多様なタスクに使われてきたが、特徴と対象変数の正確な相関は捉えていない。
そこで本研究では,LLMに基づく3つの重要な改良を加えて,実データの特徴クラス相関を正しく把握する手法を提案する。
実験の結果,本手法は下流タスクにおいて,20個のデータセット上で10個のSOTAベースラインを著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-10-29T04:14:32Z) - Diffusion posterior sampling for simulation-based inference in tall data settings [53.17563688225137]
シミュレーションベース推論(SBI)は、入力パラメータを所定の観測に関連付ける後部分布を近似することができる。
本研究では、モデルのパラメータをより正確に推測するために、複数の観測値が利用できる、背の高いデータ拡張について考察する。
提案手法を,最近提案した各種数値実験の競合手法と比較し,数値安定性と計算コストの観点から,その優位性を実証した。
論文 参考訳(メタデータ) (2024-04-11T09:23:36Z) - A Deep Learning Model for Heterogeneous Dataset Analysis -- Application
to Winter Wheat Crop Yield Prediction [0.6595290783361958]
LSTM(Long Short Term Memory)のような時系列深層学習モデルはすでに検討され、予測に応用されている。
既存のLSTMは異種データセットを扱えない。
ヘテロジニアスデータセットを扱うことができる効率的なディープラーニングモデルを提案する。
論文 参考訳(メタデータ) (2023-06-20T23:39:06Z) - On Inductive Biases for Machine Learning in Data Constrained Settings [0.0]
この論文は、データ制約された設定で表現力のあるモデルを学ぶという問題に対する異なる答えを探求する。
ニューラルネットワークを学ぶために、大きなデータセットに頼るのではなく、データ構造を反映した既知の関数によって、いくつかのモジュールを置き換えるつもりです。
我々のアプローチは「帰納的バイアス」のフードの下に置かれており、これは探索するモデルの空間を制限する手元にあるデータの仮説として定義することができる。
論文 参考訳(メタデータ) (2023-02-21T14:22:01Z) - Constructing Effective Machine Learning Models for the Sciences: A
Multidisciplinary Perspective [77.53142165205281]
線形回帰モデルに変数間の変換や相互作用を手動で追加することで、非線形解が必ずしも改善されないことを示す。
データ駆動モデルを構築する前にこれを認識する方法や、そのような分析が本質的に解釈可能な回帰モデルへの移行にどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2022-11-21T17:48:44Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Fundamental limits to learning closed-form mathematical models from data [0.0]
ノイズの多いデータセットが与えられたら、データだけで真の生成モデルを学ぶことはいつ可能だろうか?
この問題は,真のモデルが学習可能な低雑音位相から,観測ノイズが高すぎて真のモデルが学習できない位相への遷移を示す。
論文 参考訳(メタデータ) (2022-04-06T10:00:33Z) - Learning physically consistent mathematical models from data using group
sparsity [2.580765958706854]
生物学、高騒音レベル、センサーによる相関、強いシステム間変動といった分野では、データ駆動モデルは非感覚的または物理的に矛盾する。
データ駆動モデリングにおいて$textitpriors$を強制する利点を示すシステム生物学のいくつかの応用例を示す。
論文 参考訳(メタデータ) (2020-12-11T14:45:38Z) - Learning Self-Expression Metrics for Scalable and Inductive Subspace
Clustering [5.587290026368626]
サブスペースクラスタリングは、高次元データをクラスタリングするための最先端のアプローチとして確立されている。
本研究では,シアムニューラルネットワークアーキテクチャを用いて,サブスペース親和性関数を学習するための新しい距離学習手法を提案する。
我々のモデルは、パラメータの一定数とメモリフットプリントの恩恵を受けており、かなり大きなデータセットにスケールすることができる。
論文 参考訳(メタデータ) (2020-09-27T15:40:12Z) - Nonparametric Estimation in the Dynamic Bradley-Terry Model [69.70604365861121]
カーネルのスムース化に依存する新しい推定器を開発し、時間とともにペア比較を前処理する。
モデルに依存しない設定における推定誤差と余剰リスクの両方について時間変化のオラクル境界を導出する。
論文 参考訳(メタデータ) (2020-02-28T21:52:49Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。