論文の概要: Rethinking Ranking-based Loss Functions: Only Penalizing Negative
Instances before Positive Ones is Enough
- arxiv url: http://arxiv.org/abs/2102.04640v1
- Date: Tue, 9 Feb 2021 04:30:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-11 00:13:40.111435
- Title: Rethinking Ranking-based Loss Functions: Only Penalizing Negative
Instances before Positive Ones is Enough
- Title(参考訳): ランキングに基づく損失関数の再検討: 負のインスタンスを正のインスタンスの前にペナルティするだけで十分
- Authors: Zhuo Li, Weiqing Min, Jiajun Song, Yaohui Zhu, Shuqiang Jiang
- Abstract要約: 負のインスタンスを正のインスタンスの前にペナルティ化するだけで十分である、と我々は主張する。
APベースの損失に従う代わりに、我々は新たな損失、すなわち、正のインスタンス(PNP)の前に負のインスタンスを罰することを提案する。
PNP-Dは、1つのクラスに複数のローカルクラスタを含む実世界のデータに適している。
- 参考スコア(独自算出の注目度): 55.55081785232991
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimising the approximation of Average Precision (AP) has been widely
studied for retrieval. Such methods consider both negative and positive
instances before each target positive one according to the definition of AP.
However, we argue that only penalizing negative instances before positive ones
is enough, because the loss only comes from them. To this end, instead of
following the AP-based loss, we propose a new loss, namely Penalizing Negative
instances before Positive ones (PNP), which directly minimizes the number of
negative instances before each positive one. Meanwhile, limited by the
definition of AP, AP-based methods only adopt a specific gradient assignment
strategy. We wonder whether there exists better ones. Instead, we
systematically investigate different gradient assignment solutions via
constructing derivative functions of the loss, resulting in PNP-I with
increasing derivative functions and PNP-D with decreasing ones. Because of
their gradient assignment strategies, PNP-I tries to make all the relevant
instances together, while PNP-D only quickly corrects positive one with fewer
negative instances before. Thus, PNP-D may be more suitable for real-world
data, which usually contains several local clusters for one class. Extensive
evaluations on three standard retrieval datasets also show that PNP-D achieves
the state-of-the-art performance.
- Abstract(参考訳): 平均精度 (AP) の近似の最適化は, 検索のために広く研究されている。
このような方法は、APの定義に従って、各ターゲットの正のインスタンスの前に負のインスタンスと正のインスタンスの両方を検討する。
しかし、負のインスタンスのみを正のインスタンスの前にペナルティ化するだけで十分である、と我々は主張する。
このため、APベースの損失に追従する代わりに、正のインスタンス(PNP)の前に負のインスタンスを罰する新しい損失を提案し、各正のインスタンスの前に負のインスタンスの数を直接最小化します。
一方、APの定義によって制限されたAPベースのメソッドは、特定の勾配割り当て戦略のみを採用する。
より良いものが存在するのかどうか疑問だ。
代わりに, 損失の微分関数を構成することにより, pnp-i と pnp-d を減少させることで, 異なる勾配割当解を体系的に検討する。
勾配の割り当て戦略のため、PNP-Iは関連するすべてのインスタンスをまとめようとするが、PNP-Dは正のインスタンスをより少ない負のインスタンスで迅速に修正する。
したがって、PNP-Dは1つのクラスに複数のローカルクラスタを含む実世界のデータに適している。
3つの標準検索データセットに対する広範囲な評価は、PNP-Dが最先端の性能を達成することを示す。
関連論文リスト
- Policy Gradient with Active Importance Sampling [55.112959067035916]
政策勾配法(PG法)はISの利点を大いに生かし、以前に収集したサンプルを効果的に再利用することができる。
しかし、ISは歴史的サンプルを再重み付けするための受動的ツールとしてRLに採用されている。
我々は、政策勾配のばらつきを減らすために、サンプルを収集する最良の行動ポリシーを模索する。
論文 参考訳(メタデータ) (2024-05-09T09:08:09Z) - The Role of Baselines in Policy Gradient Optimization [83.42050606055822]
Emphstateのバリューベースラインが、オン・ポリティクスを可能にしていることを示す。
世界的な最適な政策勾配(NPG)に収束する。
O (1/t) レート勾配でのポリシー。
値ベースラインの主な効果は、その分散ではなく、更新のアグレッシブさをthabfreduceすることにある。
論文 参考訳(メタデータ) (2023-01-16T06:28:00Z) - Variance Reduction for Score Functions Using Optimal Baselines [0.0]
本稿では,スコア関数の分散化手法であるベースラインについて検討する。
主に強化学習によって動機付けされ、最適な状態依存ベースラインの表現が初めて導かれる。
論文 参考訳(メタデータ) (2022-12-27T19:17:28Z) - Policy learning "without" overlap: Pessimism and generalized empirical Bernstein's inequality [94.89246810243053]
本論文は,事前収集した観測値を利用して最適な個別化決定規則を学習するオフライン政策学習について検討する。
既存の政策学習法は、一様重なりの仮定、すなわち、全ての個々の特性に対する全ての作用を探索する正当性は、境界を低くしなければならない。
我々は,点推定の代わりに低信頼度境界(LCB)を最適化する新しいアルゴリズムであるPPLを提案する。
論文 参考訳(メタデータ) (2022-12-19T22:43:08Z) - Post-Processing Temporal Action Detection [134.26292288193298]
時間的行動検出(TAD)法は、通常、入力された可変長のビデオを固定長のスニペット表現シーケンスに変換する際に、前処理のステップを踏む。
この前処理ステップは、ビデオを時間的にダウンサンプリングし、推論の解像度を低減し、元の時間分解における検出性能を阻害する。
モデルの再設計や再学習を伴わない新しいモデル非依存のポストプロセッシング手法を提案する。
論文 参考訳(メタデータ) (2022-11-27T19:50:37Z) - Unified Negative Pair Generation toward Well-discriminative Feature Space for Face Recognition [2.816374336026564]
顔認識モデルは、$infmathcalSp > supmathcalSn$を満たす、よく識別可能な特徴空間(WDFS)を形成する。
本稿では,2つのPG戦略を組み合わせることにより,統一負対生成(UNPG)を提案する。
論文 参考訳(メタデータ) (2022-03-22T10:21:11Z) - Variance Penalized On-Policy and Off-Policy Actor-Critic [60.06593931848165]
本稿では,平均値と変動値の両方を含むパフォーマンス基準を最適化する,オン・ポリティィおよびオフ・ポリティィ・アクター・クリティカルなアルゴリズムを提案する。
提案手法は, アクタ批判的かつ事前の分散-ペナライゼーションベースラインに匹敵するだけでなく, リターンのばらつきが低いトラジェクトリも生成する。
論文 参考訳(メタデータ) (2021-02-03T10:06:16Z) - Direct loss minimization algorithms for sparse Gaussian processes [9.041035455989181]
本論文は,疎ガウス過程の予測損失を最小限に抑えるために後部を最適化する直接損失(DLM)を徹底的に検討する。
非共役ケースにおけるDLMの適用は、ログロスDLMの目的における期待の最小化がしばしば引き起こされるため、より複雑である。
論文 参考訳(メタデータ) (2020-04-07T02:31:00Z) - Resolving learning rates adaptively by locating Stochastic Non-Negative
Associated Gradient Projection Points using line searches [0.0]
ニューラルネットワークトレーニングにおける学習率は現在、高価なマニュアルや自動チューニングを使用したトレーニングの優先事項として決定されている。
本研究では,ニューラルネットワーク学習アルゴリズムの学習率を解くために,勾配のみの線探索を提案する。
論文 参考訳(メタデータ) (2020-01-15T03:08:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。