論文の概要: How Does Bilateral Ear Symmetry Affect Deep Ear Features?
- arxiv url: http://arxiv.org/abs/2508.04614v1
- Date: Wed, 06 Aug 2025 16:35:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.826923
- Title: How Does Bilateral Ear Symmetry Affect Deep Ear Features?
- Title(参考訳): 両耳対称性は耳の深い特徴にどのように影響するか?
- Authors: Kagan Ozturk, Deeksha Arun, Kevin W. Bowyer, Patrick Flynn,
- Abstract要約: 両耳対称性がCNNに基づく耳の認識の有効性に与える影響について検討した。
トレーニングとテストの間、左右の耳を別々に扱うと、顕著なパフォーマンス改善につながる。
- 参考スコア(独自算出の注目度): 6.143343929388887
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ear recognition has gained attention as a reliable biometric technique due to the distinctive characteristics of human ears. With the increasing availability of large-scale datasets, convolutional neural networks (CNNs) have been widely adopted to learn features directly from raw ear images, outperforming traditional hand-crafted methods. However, the effect of bilateral ear symmetry on the features learned by CNNs has received little attention in recent studies. In this paper, we investigate how bilateral ear symmetry influences the effectiveness of CNN-based ear recognition. To this end, we first develop an ear side classifier to automatically categorize ear images as either left or right. We then explore the impact of incorporating this side information during both training and test. Cross-dataset evaluations are conducted on five datasets. Our results suggest that treating left and right ears separately during training and testing can lead to notable performance improvements. Furthermore, our ablation studies on alignment strategies, input sizes, and various hyperparameter settings provide practical insights into training CNN-based ear recognition systems on large-scale datasets to achieve higher verification rates.
- Abstract(参考訳): 耳の認識は人間の耳の特徴から信頼性の高い生体計測技術として注目されている。
大規模なデータセットが利用可能になるにつれて、畳み込みニューラルネットワーク(CNN)は、生の耳の画像から直接特徴を学ぶために広く採用され、従来の手作りの手法よりも優れています。
しかし、CNNが学習した特徴に対する両耳対称性の影響は近年はほとんど注目されていない。
本稿では,両耳対称性がCNNに基づく耳の認識の有効性に与える影響について検討する。
この目的のために、まず耳側分類器を開発し、耳画像を自動的に左右に分類する。
次に、トレーニングとテストの両方で、この側面情報を取り入れることの影響について検討する。
データセット間の評価は5つのデータセットで行われる。
以上の結果から,訓練と試験において左右の耳を別々に扱うことで,顕著な改善が期待できると考えられた。
さらに、アライメント戦略、入力サイズ、および様々なハイパーパラメータ設定に関するアブレーション研究は、CNNベースの耳認識システムを大規模データセット上で訓練し、高い検証率を達成するための実践的な洞察を提供する。
関連論文リスト
- Advancing Ear Biometrics: Enhancing Accuracy and Robustness through Deep Learning [0.9910347287556193]
生体認証は、個々の身体的特徴や行動的特徴に基づいて個人を検証するための信頼性の高い方法である。
本研究は,耳の生体認証に焦点をあて,その特徴を精度,信頼性,ユーザビリティの向上に活用する。
論文 参考訳(メタデータ) (2024-05-31T18:55:10Z) - Deep Ear Biometrics for Gender Classification [3.285531771049763]
我々は、耳画像のサンプルを用いて、ジェンダーの自動分類のためのディープ畳み込みニューラルネットワーク(CNN)モデルを開発した。
提案したモデルは、EarVN1.0の耳データセットで93%の精度を達成した。
論文 参考訳(メタデータ) (2023-08-17T06:15:52Z) - Do You Remember? Overcoming Catastrophic Forgetting for Fake Audio
Detection [54.20974251478516]
本稿では,破滅的な忘れを克服するために,偽音声検出のための連続学習アルゴリズムを提案する。
検出ネットワークを微調整する場合,本手法では,真の発話と偽発話の比率に応じて,重み付けの方向を適応的に計算する。
本手法は,音声の感情認識などの関連分野に容易に一般化できる。
論文 参考訳(メタデータ) (2023-08-07T05:05:49Z) - What You Hear Is What You See: Audio Quality Metrics From Image Quality
Metrics [44.659718609385315]
そこで本研究では,音声信号の評価に最先端画像知覚メトリクスを応用し,スペクトログラムとして表現することの実現可能性について検討する。
我々は、音響信号の特異性を考慮するために、精神音響学的に妥当なアーキテクチャを持つメトリクスの1つをカスタマイズする。
提案手法の有効性を音楽データセットを用いて評価した。
論文 参考訳(メタデータ) (2023-05-19T10:43:57Z) - Deep Feature Learning for Medical Acoustics [78.56998585396421]
本研究の目的は,医療音響の課題における学習内容の比較である。
ヒトの呼吸音と心臓の鼓動を健康的または病態の影響の2つのカテゴリに分類する枠組みが実装されている。
論文 参考訳(メタデータ) (2022-08-05T10:39:37Z) - Self-supervised models of audio effectively explain human cortical
responses to speech [71.57870452667369]
我々は、自己教師型音声表現学習の進歩に乗じて、人間の聴覚システムの最先端モデルを作成する。
これらの結果から,ヒト大脳皮質における音声処理の異なる段階に関連する情報の階層構造を,自己教師型モデルで効果的に把握できることが示唆された。
論文 参考訳(メタデータ) (2022-05-27T22:04:02Z) - HASA-net: A non-intrusive hearing-aid speech assessment network [52.83357278948373]
本稿では,DNNに基づく聴覚支援音声評価ネットワーク(HASA-Net)を提案する。
我々の知る限り、HASA-Netは、DNNに基づく統合型非侵襲的補聴器モデルを用いて、品質とインテリジェンスの評価を取り入れた最初の研究である。
実験結果から,HASA-Netの予測音声品質と難聴度スコアは,2つのよく知られた難聴度評価指標と高い相関を示した。
論文 参考訳(メタデータ) (2021-11-10T14:10:13Z) - EEGminer: Discovering Interpretable Features of Brain Activity with
Learnable Filters [72.19032452642728]
本稿では,学習可能なフィルタと事前決定された特徴抽出モジュールからなる新しい識別可能なEEGデコーディングパイプラインを提案する。
我々は,SEEDデータセットおよび前例のない大きさの新たな脳波データセット上で,脳波信号からの感情認識に向けたモデルの有用性を実証する。
発見された特徴は、以前の神経科学の研究と一致し、音楽聴取中の左右の時間領域間の機能的接続プロファイルの顕著な相違など、新たな洞察を提供する。
論文 参考訳(メタデータ) (2021-10-19T14:22:04Z) - Transferring Voice Knowledge for Acoustic Event Detection: An Empirical
Study [11.825240267691209]
本稿では,話者データセットから抽出した高レベル音声表現を伝達して,音響イベント検出パイプラインを強化する可能性について検討する。
AEDプロセス中に音声と音響の特徴を共同学習するためのデュアルブランチニューラルネットワークアーキテクチャを開発した。
論文 参考訳(メタデータ) (2021-10-07T04:03:21Z) - Ear Recognition [0.0]
耳のバイオメトリックスは、主に非侵襲的で、適切に永続的で正確であることが証明されている。
異なる耳認識技術は、顔認識技術と同じくらい効果的であることが証明されています。
論文 参考訳(メタデータ) (2021-01-26T03:26:00Z) - Emotional EEG Classification using Connectivity Features and
Convolutional Neural Networks [81.74442855155843]
CNNと脳のつながりを利用した新しい分類システムを導入し,その効果を感情映像分類により検証する。
対象映像の感情的特性に関連する脳接続の集中度は分類性能と相関する。
論文 参考訳(メタデータ) (2021-01-18T13:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。