論文の概要: Edgeworth Expansion for Semi-hard Triplet Loss
- arxiv url: http://arxiv.org/abs/2503.12893v1
- Date: Mon, 17 Mar 2025 07:46:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:35:38.572345
- Title: Edgeworth Expansion for Semi-hard Triplet Loss
- Title(参考訳): 半硬度トリプルト損失に対するエッジワース拡大
- Authors: Masanari Kimura,
- Abstract要約: We developed a higher-order analysis for the semi-hard triplet loss using the Edgeworth expansion。
提案手法は,損失挙動に対するマージンパラメータと基礎となるデータ分布の歪度の影響を定量的に評価する。
- 参考スコア(独自算出の注目度): 1.1240642213359266
- License:
- Abstract: We develop a higher-order asymptotic analysis for the semi-hard triplet loss using the Edgeworth expansion. It is known that this loss function enforces that embeddings of similar samples are close while those of dissimilar samples are separated by a specified margin. By refining the classical central limit theorem, our approach quantifies the impact of the margin parameter and the skewness of the underlying data distribution on the loss behavior. In particular, we derive explicit Edgeworth expansions that reveal first-order corrections in terms of the third cumulant, thereby characterizing non-Gaussian effects present in the distribution of distance differences between anchor-positive and anchor-negative pairs. Our findings provide detailed insight into the sensitivity of the semi-hard triplet loss to its parameters and offer guidance for choosing the margin to ensure training stability.
- Abstract(参考訳): We developed a higher-order asymptotic analysis for the semi-hard trit loss using the Edgeworth expansion。
この損失関数は、類似サンプルの埋め込みが近いのに対して、異種サンプルの埋め込みは特定のマージンで分離されていることを強制することが知られている。
古典的中心極限定理を精製することにより,損失挙動に対するマージンパラメータの影響と基礎となるデータ分布の歪度を定量化する。
特に、第3累積の項で一階補正を示す明示的なエッジワース展開を導出し、アンカー正対とアンカー負対の間の距離差の分布に存在する非ガウス効果を特徴づける。
本研究は, 半硬度三重項損失のパラメータに対する感度に関する詳細な知見を提供し, トレーニング安定性を確保するためのマージン選択のためのガイダンスを提供する。
関連論文リスト
- Generalization Certificates for Adversarially Robust Bayesian Linear Regression [16.3368950151084]
機械学習モデルの逆ロバスト性は、データ摂動下での信頼性の高い性能を保証するために重要である。
近年, 点推定器の進歩が見られ, 分布予測器について考察する。
実および合成データセットの実験は、ベイズ後部の逆向きに頑健な後部の優れた強靭性を示す。
論文 参考訳(メタデータ) (2025-02-20T06:25:30Z) - Curvature-Independent Last-Iterate Convergence for Games on Riemannian
Manifolds [77.4346324549323]
本研究では, 多様体の曲率に依存しないステップサイズが, 曲率非依存かつ直線的最終点収束率を達成することを示す。
我々の知る限りでは、曲率非依存率や/または最終点収束の可能性はこれまでに検討されていない。
論文 参考訳(メタデータ) (2023-06-29T01:20:44Z) - Convergence and concentration properties of constant step-size SGD
through Markov chains [0.0]
定常段差勾配勾配(SGD)を用いた滑らかで強凸な目標の最適化について検討する。
緩やかに制御された分散を伴う不偏勾配推定に対して、反復は全変動距離の不変分布に収束することを示す。
全ての結果は無症状であり、その結果はいくつかのアプリケーションを通して議論されている。
論文 参考訳(メタデータ) (2023-06-20T12:36:28Z) - STAR Loss: Reducing Semantic Ambiguity in Facial Landmark Detection [80.04000067312428]
本稿では,意味的あいまいさの特性を利用した自己適応型あいまいさ低減(STAR)の損失を提案する。
意味的あいまいさは異方性予測分布をもたらすことが分かり、予測分布を用いて意味的あいまいさを表現する。
また,分布の異常変化とモデルの初期収束を回避できる2種類の固有値制限法を提案する。
論文 参考訳(メタデータ) (2023-06-05T10:33:25Z) - Expressive Losses for Verified Robustness via Convex Combinations [67.54357965665676]
本研究では, 過近似係数と異なる表現的損失に対する性能分布の関係について検討した。
表現性が不可欠である一方で、最悪の場合の損失のより良い近似は、必ずしも優れた堅牢性-正確性トレードオフに結びついていないことを示す。
論文 参考訳(メタデータ) (2023-05-23T12:20:29Z) - Model-Based Uncertainty in Value Functions [89.31922008981735]
MDP上の分布によって引き起こされる値の分散を特徴付けることに重点を置いている。
従来の作業は、いわゆる不確実性ベルマン方程式を解くことで、値よりも後方の分散を境界にしている。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式を提案する。
論文 参考訳(メタデータ) (2023-02-24T09:18:27Z) - Optimized Hybrid Focal Margin Loss for Crack Segmentation [1.8492669447784602]
過度なクラス不均衡に対処し, ひび割れ分断に対する過度な適合を防止するために, 新たなハイブリッド焦点損失を提案する。
実験の結果,DeepCrack-DBでは0.43,PanelCrackデータセットでは0.44,ひび割れのIoUが有意に増加することがわかった。
論文 参考訳(メタデータ) (2023-02-09T01:26:38Z) - Loss-calibrated expectation propagation for approximate Bayesian
decision-making [24.975981795360845]
損失校正予測伝搬(Loss-EP)は,損失校正予測伝搬の変種である。
我々は、この非対称性が、近似で取得する「有用な」情報に劇的な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-01-10T01:42:28Z) - Square Root Marginalization for Sliding-Window Bundle Adjustment [53.34552451834707]
実時間オドメトリーに適合する新しい正方形根のすべり窓束の調整法を提案する。
提案した平方根辺化は、ヘシアン上でのシュール補数(SC)の従来の使用と代数的に等価であることを示す。
実世界のデータセットにおける視覚的および視覚的慣性オドメトリーの評価は,提案した推定器がベースラインよりも36%高速であることを示す。
論文 参考訳(メタデータ) (2021-09-05T23:22:38Z) - Relative Deviation Margin Bounds [55.22251993239944]
我々はRademacher複雑性の観点から、分布依存と一般家庭に有効な2種類の学習境界を与える。
有限モーメントの仮定の下で、非有界な損失関数に対する分布依存的一般化境界を導出する。
論文 参考訳(メタデータ) (2020-06-26T12:37:17Z) - Towards Better Performance and More Explainable Uncertainty for 3D
Object Detection of Autonomous Vehicles [33.0319422469465]
そこで本研究では,LiDARに基づく3次元物体検出の性能を向上させるために,ロス関数の新たな形式を提案する。
新たな損失関数により,KITTIデータセットのval分割における手法の性能は平均精度で15%向上した。
論文 参考訳(メタデータ) (2020-06-22T05:49:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。