論文の概要: FILM: A Fast, Interpretable, and Low-rank Metric Learning Approach for
Sentence Matching
- arxiv url: http://arxiv.org/abs/2010.05523v2
- Date: Tue, 13 Oct 2020 01:14:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 05:22:23.723244
- Title: FILM: A Fast, Interpretable, and Low-rank Metric Learning Approach for
Sentence Matching
- Title(参考訳): FILM: 文マッチングのための高速,解釈可能,低ランクなメトリクス学習手法
- Authors: Xiangru Tang, Alan Aw
- Abstract要約: FILM(Fast, Interpretable, Low-rank Metric Learning)を導入し,高次元データの高識別性投影を効率的に行う。
実験では,Quora Challenge and Semantic Textual similarity (STS) Taskに適用した。
その結果, FILM法は高速な計算速度だけでなく, 優れた性能が得られることがわかった。
- 参考スコア(独自算出の注目度): 5.652294014986704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detection of semantic similarity plays a vital role in sentence matching. It
requires to learn discriminative representations of natural language. Recently,
owing to more and more sophisticated model architecture, impressive progress
has been made, along with a time-consuming training process and
not-interpretable inference. To alleviate this problem, we explore a metric
learning approach, named FILM (Fast, Interpretable, and Low-rank Metric
learning) to efficiently find a high discriminative projection of the
high-dimensional data. We construct this metric learning problem as a manifold
optimization problem and solve it with the Cayley transformation method with
the Barzilai-Borwein step size. In experiments, we apply FILM with triplet loss
minimization objective to the Quora Challenge and Semantic Textual Similarity
(STS) Task. The results demonstrate that the FILM method achieves superior
performance as well as the fastest computation speed, which is consistent with
our theoretical analysis of time complexity.
- Abstract(参考訳): 意味的類似性の検出は文マッチングにおいて重要な役割を果たす。
自然言語の識別表現を学ぶ必要がある。
近年、より洗練されたモデルアーキテクチャにより、時間を要するトレーニングプロセスと解釈不能な推論とともに、目覚ましい進歩を遂げています。
この問題を軽減するため, FILM (Fast, Interpretable, Low-rank Metric Learning) と呼ばれる計量学習手法を探索し, 高次元データの高判別的投影を効率的に行う。
我々は,この計量学習問題を多様体最適化問題として構築し,バルジライ=ボルワインステップサイズでケイリー変換法を用いて解く。
実験では,三重項損失最小化目的のフィルムをquora challenge and semantic textual similarity (sts)タスクに適用する。
その結果、FILM法は時間複雑性の理論解析と一致し、高速な計算速度と優れた性能を達成できることを示した。
関連論文リスト
- Scaling LLM Test-Time Compute Optimally can be More Effective than Scaling Model Parameters [27.656263126925815]
LLMにおける推論時間計算のスケーリングについて検討する。
どちらの場合も、テスト時間計算のスケーリングに対する異なるアプローチの有効性は、プロンプトの難しさによって大きく異なることがわかった。
論文 参考訳(メタデータ) (2024-08-06T17:35:05Z) - Retrieval with Learned Similarities [2.729516456192901]
最先端の検索アルゴリズムは、学習された類似点に移行した。
そこで本研究では,Mixture-of-Logits (MoL) を実証的に実現し,多様な検索シナリオにおいて優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2024-07-22T08:19:34Z) - Text-Video Retrieval with Global-Local Semantic Consistent Learning [122.15339128463715]
我々は,シンプルで効果的なグローバル局所意味的一貫性学習(GLSCL)を提案する。
GLSCLは、テキストビデオ検索のためのモダリティをまたいだ潜在共有セマンティクスを活用する。
本手法はSOTAと同等の性能を実現し,計算コストの約220倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-05-21T11:59:36Z) - Online Cascade Learning for Efficient Inference over Streams [9.516197133796437]
大規模言語モデル(LLM)は、データストリームに関する複雑なクエリに応答する自然な役割を持つ。
この課題に対処する最初のアプローチであるオンラインカスケード学習を提案する。
我々は,オンラインでカスケードを学習するタスクを模倣学習問題として定式化する。
論文 参考訳(メタデータ) (2024-02-07T01:46:50Z) - Robust Analysis of Multi-Task Learning Efficiency: New Benchmarks on Light-Weighed Backbones and Effective Measurement of Multi-Task Learning Challenges by Feature Disentanglement [69.51496713076253]
本稿では,既存のMTL手法の効率性に焦点をあてる。
バックボーンを小さくしたメソッドの大規模な実験と,MetaGraspNetデータセットを新しいテストグラウンドとして実施する。
また,MTLにおける課題の新規かつ効率的な識別子として,特徴分散尺度を提案する。
論文 参考訳(メタデータ) (2024-02-05T22:15:55Z) - LLM-augmented Preference Learning from Natural Language [19.700169351688768]
大規模言語モデル(LLM)は、より大きな文脈長を扱う。
LLM は、ターゲットテキストが大きければ SotA を一貫して上回る。
ゼロショット学習よりもパフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-10-12T17:17:27Z) - OverPrompt: Enhancing ChatGPT through Efficient In-Context Learning [49.38867353135258]
複数のタスク入力を処理するために,LLMのコンテキスト内学習機能を活用したOverPromptを提案する。
本実験により,OverPromptはタスク性能を著しく損なうことなく,コスト効率の良いゼロショット分類を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-05-24T10:08:04Z) - SatLM: Satisfiability-Aided Language Models Using Declarative Prompting [68.40726892904286]
本研究では,大規模言語モデル (LLM) の推論能力を向上させるために,新しい満足度支援言語モデリング (SatLM) 手法を提案する。
我々はLLMを用いて命令型プログラムではなく宣言型タスク仕様を生成し、既製の自動定理証明器を利用して最終解を導出する。
我々はSATLMを8つの異なるデータセット上で評価し、命令パラダイムにおいてプログラム支援されたLMよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-05-16T17:55:51Z) - Alleviating Over-smoothing for Unsupervised Sentence Representation [96.19497378628594]
本稿では,この問題を緩和するために,SSCL(Self-Contrastive Learning)というシンプルな手法を提案する。
提案手法は非常に単純で,様々な最先端モデルに拡張して,性能向上を図ることができる。
論文 参考訳(メタデータ) (2023-05-09T11:00:02Z) - Adaptive neighborhood Metric learning [184.95321334661898]
適応的近傍距離距離学習(ANML)という新しい距離距離距離距離距離距離学習アルゴリズムを提案する。
ANMLは線形埋め込みと深層埋め込みの両方を学ぶのに使うことができる。
本手法で提案するemphlog-exp平均関数は,深層学習手法をレビューするための新たな視点を与える。
論文 参考訳(メタデータ) (2022-01-20T17:26:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。