論文の概要: Evaluating Rank-N-Contrast: Continuous and Robust Representations for Regression
- arxiv url: http://arxiv.org/abs/2411.16298v1
- Date: Mon, 25 Nov 2024 11:31:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:23:58.199194
- Title: Evaluating Rank-N-Contrast: Continuous and Robust Representations for Regression
- Title(参考訳): Rank-N-Contrastの評価: 回帰の連続表現とロバスト表現
- Authors: Six Valentin, Chidiac Alexandre, Worlikar Arkin,
- Abstract要約: この文書は2023年に出版された『Rank-N-Contrast』(arXiv:2210.01189v2)の複製である。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This document is a replication of the original "Rank-N-Contrast" (arXiv:2210.01189v2) paper published in 2023. This evaluation is done for academic purposes. Deep regression models often fail to capture the continuous nature of sample orders, creating fragmented representations and suboptimal performance. To address this, we reproduced the Rank-N-Contrast (RNC) framework, which learns continuous representations by contrasting samples by their rankings in the target space. Our study validates RNC's theoretical and empirical benefits, including improved performance and robustness. We extended the evaluation to an additional regression dataset and conducted robustness tests using a holdout method, where a specific range of continuous data was excluded from the training set. This approach assessed the model's ability to generalise to unseen data and achieve state-of-the-art performance. This replication study validates the original findings and broadens the understanding of RNC's applicability and robustness.
- Abstract(参考訳): この文書は2023年に出版された『Rank-N-Contrast』(arXiv:2210.01189v2)の複製である。
この評価は学術的な目的のために行われる。
深部回帰モデルは、しばしばサンプル順序の連続的な性質を捉えず、断片化された表現と準最適性能を生成する。
これを解決するために、ターゲット空間のランキングでサンプルを対比することで連続表現を学習する Rank-N-Contrast (RNC) フレームワークを再現した。
本研究は,RCCの理論的および経験的メリットとして,性能と堅牢性の向上を検証した。
評価を追加回帰データセットに拡張し,トレーニングセットから特定の連続データの範囲を除外したホールドアウト法を用いてロバストネステストを行った。
このアプローチは、見つからないデータに一般化し、最先端のパフォーマンスを達成するモデルの能力を評価する。
本研究は、元の知見を検証し、RCCの適用性と堅牢性に関する理解を広げるものである。
関連論文リスト
- Noisy Self-Training with Synthetic Queries for Dense Retrieval [49.49928764695172]
合成クエリと組み合わせた,ノイズの多い自己学習フレームワークを提案する。
実験結果から,本手法は既存手法よりも一貫した改善が得られた。
我々の手法はデータ効率が良く、競争のベースラインより優れています。
論文 参考訳(メタデータ) (2023-11-27T06:19:50Z) - GREAT Score: Global Robustness Evaluation of Adversarial Perturbation using Generative Models [60.48306899271866]
GREATスコア(GREAT Score)と呼ばれる新しいフレームワークを提案する。
我々は,ロバストベンチにおける攻撃ベースモデルと比較し,高い相関性を示し,GREATスコアのコストを大幅に削減した。
GREAT Scoreは、プライバシーに敏感なブラックボックスモデルのリモート監査に使用することができる。
論文 参考訳(メタデータ) (2023-04-19T14:58:27Z) - Improved Policy Evaluation for Randomized Trials of Algorithmic Resource
Allocation [54.72195809248172]
提案する新しい概念を応用した新しい推定器を提案する。
我々は,このような推定器が,サンプル手段に基づく一般的な推定器よりも精度が高いことを理論的に証明した。
論文 参考訳(メタデータ) (2023-02-06T05:17:22Z) - Continual Contrastive Finetuning Improves Low-Resource Relation
Extraction [34.76128090845668]
関係抽出は低リソースのシナリオやドメインでは特に困難である。
近年の文献は自己教師型学習によって低リソースREに取り組みつつある。
コントラスト学習の一貫した目的を用いたREモデルの事前学習と微調整を提案する。
論文 参考訳(メタデータ) (2022-12-21T07:30:22Z) - Rank-N-Contrast: Learning Continuous Representations for Regression [28.926518084216607]
Rank-N-Contrast(RNC)は、ターゲット空間のランクに基づいて、サンプルを互いに対比することで、回帰の連続的な表現を学習するフレームワークである。
RNCは、学習された表現の望ましい順序を目標命令に従って保証する。
RNCは最先端のパフォーマンスを達成し、データ効率の向上、ターゲットの刺激に対する堅牢性、データの破損など、興味深い特性を強調している。
論文 参考訳(メタデータ) (2022-10-03T19:00:38Z) - Interpretable Research Replication Prediction via Variational Contextual
Consistency Sentence Masking [14.50690911709558]
研究レプリケーション予測(Research Replication Prediction、RRP)は、公表された研究結果が複製可能かどうかを予測するタスクである。
本研究では,キー文を自動的に抽出するVCCSM法を提案する。
欧州人権条約 (ECHR) のデータセットとともに, RRP に関する実験の結果, VCCSM は長い文書分類作業において, モデル解釈可能性を向上させることができることを示した。
論文 参考訳(メタデータ) (2022-03-28T03:27:13Z) - Better Modelling Out-of-Distribution Regression on Distributed Acoustic
Sensor Data Using Anchored Hidden State Mixup [0.7455546102930911]
トレーニングデータとテストデータの統計的分布が異なる状況への機械学習モデルの応用を一般化することは、複雑な問題であった。
本稿では,正規化の新たなペナルティを形成するために,多様体隠蔽状態の混合と観測類似性を利用したアンカー型回帰混合アルゴリズムを提案する。
提案手法の既存手法に対する一般化性能を広範囲に評価し,提案手法が最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2022-02-23T03:12:21Z) - Open-Set Recognition: A Good Closed-Set Classifier is All You Need [146.6814176602689]
分類器が「ゼロ・オブ・ア・ア・ア・ベ」決定を行う能力は、閉集合クラスにおける精度と高い相関関係があることが示される。
この相関を利用して、閉セット精度を向上させることにより、クロスエントロピーOSR'ベースライン'の性能を向上させる。
また、セマンティックノベルティを検出するタスクをより尊重する新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2021-10-12T17:58:59Z) - Reliable Evaluations for Natural Language Inference based on a Unified
Cross-dataset Benchmark [54.782397511033345]
クラウドソースの自然言語推論(NLI)データセットは、アノテーションアーティファクトのような重大なバイアスに悩まされる可能性がある。
14のNLIデータセットと9つの広く使用されているニューラルネットワークベースのNLIモデルを再評価した、新しいクロスデータセットベンチマークを提案する。
提案した評価手法と実験ベースラインは,将来信頼性の高いNLI研究を刺激する基盤となる可能性がある。
論文 参考訳(メタデータ) (2020-10-15T11:50:12Z) - Summary-Source Proposition-level Alignment: Task, Datasets and
Supervised Baseline [94.0601799665342]
資料の参照要約における文のアライメントは,補助的な要約作業として有用であった。
本稿では,2つの重要な新機能を導入しながら,要約ソースアライメントを明示的なタスクとして確立することを提案する。
我々は提案レベルのアライメントのための新しいトレーニングデータセットを作成し、利用可能な要約評価データから自動的に抽出する。
教師なしアプローチよりも優れたアライメント品質を示す教師付き命題アライメントベースラインモデルを提案する。
論文 参考訳(メタデータ) (2020-09-01T17:27:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。