論文の概要: Persistence Homology of TEDtalk: Do Sentence Embeddings Have a
Topological Shape?
- arxiv url: http://arxiv.org/abs/2103.14131v1
- Date: Thu, 25 Mar 2021 20:52:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 12:38:13.014370
- Title: Persistence Homology of TEDtalk: Do Sentence Embeddings Have a
Topological Shape?
- Title(参考訳): TEDtalkの永続ホモロジー: 意味埋め込みはトポロジカルな形状を持つか?
- Authors: Shouman Das, Syed A. Haque, Md. Iftekhar Tanveer
- Abstract要約: 公衆発話評価の分類精度を向上させるためにTDAを適用する可能性を検討する。
TEDtalkデータの文埋め込みのためのエンハンスレンス画像ベクトルを計算し、このベクトルを機械学習モデルに追加入力として与えた。
以上の結果から,文章埋め込みのトポロジカルな形状が,公用語評価のためのより良いモデルトレーニングに役立つと結論づけることはできなかった。
- 参考スコア(独自算出の注目度): 3.1675545188012078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: \emph{Topological data analysis} (TDA) has recently emerged as a new
technique to extract meaningful discriminitve features from high dimensional
data. In this paper, we investigate the possibility of applying TDA to improve
the classification accuracy of public speaking rating. We calculated
\emph{persistence image vectors} for the sentence embeddings of TEDtalk data
and feed this vectors as additional inputs to our machine learning models. We
have found a negative result that this topological information does not improve
the model accuracy significantly. In some cases, it makes the accuracy slightly
worse than the original one. From our results, we could not conclude that the
topological shapes of the sentence embeddings can help us train a better model
for public speaking rating.
- Abstract(参考訳): emph{topological data analysis} (tda) は高次元データから有意義な識別特徴を抽出する新しい手法として最近登場した。
本稿では,公衆発話評価の分類精度を向上させるためにTDAを適用する可能性を検討する。
tedtalkデータの文埋め込みに対して \emph{persistence image vectors} を計算し,このベクトルを機械学習モデルへの追加入力として与えた。
この位相情報はモデル精度を著しく改善しないという負の結果が得られた。
場合によっては、元のものよりわずかに精度が悪くなることもある。
以上の結果から,文章埋め込みのトポロジカルな形状が,公用語評価のためのより良いモデルトレーニングに役立つと結論付けることはできなかった。
関連論文リスト
- Pruning Literals for Highly Efficient Explainability at Word Level [13.249876381579158]
Tsetlin Machine(TM)は、命題論理を用いた単語レベルの説明を提供する能力があるので、有望である。
本稿では,文中にランダムに置かれるリテラルを排除した節のポストホックプルーニングを設計する。
一般公開されたYELP-HATデータセットの実験では、提案されたプルーンドTMのアテンションマップが、バニラTMのアテンションマップよりも人間のアテンションマップと一致していることが示されている。
論文 参考訳(メタデータ) (2024-11-07T09:28:38Z) - The Persian Rug: solving toy models of superposition using large-scale symmetries [0.0]
入力次元が大きければ最小限の非線形スパースデータオートエンコーダによって学習されたアルゴリズムの完全なメカニスティック記述を示す。
我々の研究は、オートエンコーダの構造を理解する技術を導入することによって、ニューラルネットワークの解釈可能性に貢献している。
論文 参考訳(メタデータ) (2024-10-15T22:52:45Z) - Towards Model-Agnostic Posterior Approximation for Fast and Accurate Variational Autoencoders [22.77397537980102]
我々は,真のモデルの後部の決定論的,モデルに依存しない後部近似(MAPA)を計算可能であることを示す。
我々は,(1)MAPAが真の後部傾向を捉えた低次元合成データに対する予備的な結果を示し,(2)MAPAに基づく推論は,ベースラインよりも少ない計算でより優れた密度推定を行う。
論文 参考訳(メタデータ) (2024-03-13T20:16:21Z) - Towards Fine-Grained Information: Identifying the Type and Location of
Translation Errors [80.22825549235556]
既存のアプローチでは、エラーの位置と型を同期的に考慮することはできない。
我々はtextbf の追加と textbfomission エラーを予測するために FG-TED モデルを構築した。
実験により,本モデルではエラータイプと位置の同時同定が可能であり,最先端の結果が得られた。
論文 参考訳(メタデータ) (2023-02-17T16:20:33Z) - Topological Data Analysis for Speech Processing [10.00176964652466]
このような特徴の上に構築された単純な線形分類器は、微調整された分類ヘッドよりも優れていることを示す。
また、トポロジカルな特徴は、音声トランスフォーマーヘッドの機能的役割を明らかにすることができることを示す。
論文 参考訳(メタデータ) (2022-11-30T18:22:37Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - Generative Text Modeling through Short Run Inference [47.73892773331617]
本研究は、推論のためのショートランダイナミックスを提案し、潜伏変数の以前の分布から変化し、後続分布によって導かれる少数のランゲヴィンダイナミックスステップを実行する。
短絡力学で訓練されたモデルは、強い言語モデルやVAEベースラインと比較して、より正確にデータをモデル化し、後方崩壊の兆候は示さない。
論文 参考訳(メタデータ) (2021-05-27T09:14:35Z) - Learnable Boundary Guided Adversarial Training [66.57846365425598]
私たちは、あるクリーンモデルからのモデルロジットを使用して、別のロバストモデルの学習をガイドします。
我々は、CIFAR-100上で、追加の実データや合成データなしで、新しい最先端のロバスト性を実現する。
論文 参考訳(メタデータ) (2020-11-23T01:36:05Z) - Improving Robustness by Augmenting Training Sentences with
Predicate-Argument Structures [62.562760228942054]
データセットバイアスに対するロバスト性を改善する既存のアプローチは、主にトレーニング目標の変更に焦点を当てている。
本稿では,学習データ中の入力文に対応する述語句構造を付加することを提案する。
特定のバイアスを対象とせずに、文の増大は、複数のバイアスに対してトランスフォーマーモデルの堅牢性を向上することを示す。
論文 参考訳(メタデータ) (2020-10-23T16:22:05Z) - Evaluating Prediction-Time Batch Normalization for Robustness under
Covariate Shift [81.74795324629712]
我々は予測時間バッチ正規化と呼び、共変量シフト時のモデル精度とキャリブレーションを大幅に改善する。
予測時間バッチ正規化は、既存の最先端アプローチに相補的な利点をもたらし、ロバスト性を向上させることを示します。
この手法は、事前トレーニングと併用して使用すると、さまざまな結果が得られるが、より自然なタイプのデータセットシフトでは、パフォーマンスが良くないようだ。
論文 参考訳(メタデータ) (2020-06-19T05:08:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。