論文の概要: Isotropy-Optimized Contrastive Learning for Semantic Course Recommendation
- arxiv url: http://arxiv.org/abs/2601.11427v1
- Date: Fri, 16 Jan 2026 16:47:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.567172
- Title: Isotropy-Optimized Contrastive Learning for Semantic Course Recommendation
- Title(参考訳): セマンティックコース推薦のための等方性最適化コントラスト学習
- Authors: Ali Khreis, Anthony Nasr, Yusuf Hilal,
- Abstract要約: 本稿では,BERT (Bidirectional Representations from Transformers) に基づくセマンティックコース推薦システムを提案する。
従来のBERT埋め込みは異方性表現空間に悩まされ、コース記述は意味的関連性に関係なくコサイン類似度が高い。
本稿では,データ拡張とアイソトロピー正規化を併用して,より差別的な埋め込みを生成するコントラスト学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a semantic course recommendation system for students using a self-supervised contrastive learning approach built upon BERT (Bidirectional Encoder Representations from Transformers). Traditional BERT embeddings suffer from anisotropic representation spaces, where course descriptions exhibit high cosine similarities regardless of semantic relevance. To address this limitation, we propose a contrastive learning framework with data augmentation and isotropy regularization that produces more discriminative embeddings. Our system processes student text queries and recommends Top-N relevant courses from a curated dataset of over 500 engineering courses across multiple faculties. Experimental results demonstrate that our fine-tuned model achieves improved embedding separation and more accurate course recommendations compared to vanilla BERT baselines.
- Abstract(参考訳): 本稿では,BERT (Bidirectional Encoder Representations from Transformers) に基づく自己指導型コントラスト学習手法を用いて,学生のセマンティックコース推薦システムを提案する。
従来のBERT埋め込みは異方性表現空間に悩まされ、コース記述は意味的関連性に関係なくコサイン類似度が高い。
この制限に対処するため,データ拡張とアイソトロピー正規化を併用し,より差別的な埋め込みを生成するコントラスト学習フレームワークを提案する。
本システムでは, 学生向けテキストクエリを処理し, 複数の学部にまたがる500以上の工学コースのキュレートされたデータセットからTop-N関連コースを推薦する。
実験結果から,バニラBERTベースラインに比べて細調整モデルにより,埋込分離の改善とコースレコメンデーションの精度の向上が得られた。
関連論文リスト
- Multi-Level Aware Preference Learning: Enhancing RLHF for Complex Multi-Instruction Tasks [81.44256822500257]
RLHFは、人工知能システムと人間の好みを結びつける主要なアプローチとして登場した。
RLHFは、複雑なマルチインストラクションタスクに直面すると、不十分なコンプライアンス機能を示す。
本稿では,マルチインストラクション能力を向上させる新しいMAPL(Multi-level Aware Preference Learning)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-19T08:33:11Z) - A Systematic Examination of Preference Learning through the Lens of Instruction-Following [83.71180850955679]
新たな合成データ生成パイプラインを用いて48,000の命令追従プロンプトを生成する。
合成プロンプトでは、リジェクションサンプリング(RS)とモンテカルロ木探索(MCTS)の2つの選好データセットキュレーション手法を用いる。
実験により、MCTSが生成した選好ペアにおける共有プレフィックスは、限界はあるが一貫した改善をもたらすことが明らかになった。
高コントラストの選好ペアは一般的に低コントラストのペアよりも優れているが、両者を組み合わせることで最高のパフォーマンスが得られることが多い。
論文 参考訳(メタデータ) (2024-12-18T15:38:39Z) - Semantic Convergence: Harmonizing Recommender Systems via Two-Stage Alignment and Behavioral Semantic Tokenization [10.47505806629852]
大規模言語モデル(LLM)は、歴史的行動からユーザの深い関心を識別する能力を持っている。
従来のレコメンデーションモデルとLLMの長所を調和的に融合する新しいフレームワークを提案する。
我々は、協調的な信号と自然言語意味論の微妙さを整合させることを目的とした、教師付き学習タスクのシリーズを設計する。
論文 参考訳(メタデータ) (2024-12-18T12:07:58Z) - Learning Multi-Aspect Item Palette: A Semantic Tokenization Framework for Generative Recommendation [55.99632509895994]
マルチアスペクトセマンティックトークン化のための新しいアプローチであるLAMIAを紹介する。
単一の埋め込みを使用するRQ-VAEとは異なり、LAMIAは独立的でセマンティックな並列な埋め込みの集合である「アイテムパレット」を学習する。
その結果,提案手法よりも提案手法の精度が大幅に向上した。
論文 参考訳(メタデータ) (2024-09-11T13:49:48Z) - Representation Learning in a Decomposed Encoder Design for Bio-inspired Hebbian Learning [5.67478985222587]
本稿では,異なる不変な視覚ディスクリプタを帰納バイアスとして活用する並列エンコーダを含む,バイオインスパイアされたコントラッシブ予測符号化を訓練したモジュラーフレームワークを提案する。
以上の結果から,帰納的バイアスは学習表現の堅牢性を大幅に向上させ,モデル間の性能ギャップを狭めることが示唆された。
論文 参考訳(メタデータ) (2023-11-22T07:58:14Z) - OTMatch: Improving Semi-Supervised Learning with Optimal Transport [2.4355694259330467]
我々はOTMatchと呼ばれる新しい手法を提案する。OTMatchはクラス間の意味的関係を利用して、最適輸送損失関数を用いて分布を一致させる。
実験結果から,本手法のベースライン上における改善が示され,半教師付き環境での学習性能向上に意味的関係を活用する上でのアプローチの有効性と優位性が示された。
論文 参考訳(メタデータ) (2023-10-26T15:01:54Z) - Prefer to Classify: Improving Text Classifiers via Auxiliary Preference
Learning [76.43827771613127]
本稿では、このような補助データアノテーションの新しい代替手段として、入力テキストのペア間のタスク固有の嗜好について検討する。
本稿では、与えられた分類課題と補助的選好の両方を学ぶことの協調効果を享受できる、P2Cと呼ばれる新しいマルチタスク学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T04:04:47Z) - Contrastive Learning with Consistent Representations [8.364383223740097]
本稿では,Contrastive Learning with Consistent Representations CoCorを提案する。
CoCorの中心には、DA整合性と呼ばれる新しい整合性指標があります。
実験結果から,CoCorは学習した表現の一般化可能性や伝達可能性を高めることが明らかとなった。
論文 参考訳(メタデータ) (2023-02-03T04:34:00Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Contrastive Self-supervised Sequential Recommendation with Robust
Augmentation [101.25762166231904]
Sequential Recommendation Describes a set of technique to model dynamic user behavior to order to predict future interaction in sequence user data。
データスパーシリティやノイズの多いデータなど、古くて新しい問題はまだ残っている。
逐次レコメンデーション(CoSeRec)のためのコントラスト型自己監督学習を提案する。
論文 参考訳(メタデータ) (2021-08-14T07:15:25Z) - Improving BERT Model Using Contrastive Learning for Biomedical Relation
Extraction [13.354066085659198]
対比学習は、テキストデータの一般的なデータ拡張方法が不足しているため、自然言語処理では広く利用されていない。
本研究では, 対比学習を用いてBERTモデルからのテキスト表現を改善し, 関係抽出を行う手法を検討する。
3つの関係抽出ベンチマークデータセットの実験結果から,本手法がBERTモデル表現を改善し,最新性能を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-28T17:50:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。