論文の概要: 3rd Place Solution to ICCV LargeFineFoodAI Retrieval
- arxiv url: http://arxiv.org/abs/2510.21198v1
- Date: Fri, 24 Oct 2025 07:04:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.403619
- Title: 3rd Place Solution to ICCV LargeFineFoodAI Retrieval
- Title(参考訳): ICCV LargeFineFoodAI 検索における第3位
- Authors: Yang Zhong, Zhiming Wang, Zhaoyang Li, Jinyu Ma, Xiang Li,
- Abstract要約: 本稿では,ICCV LargeFineFoodAI Retrieval Competition on Kaggleの3位となるソリューションを紹介する。
4つの基本モデルは、ArcFaceとCircleの損失の重み付けで独立に訓練されている。
さらに,拡散とk-相反再位に基づく新たな検索手法を提案する。
- 参考スコア(独自算出の注目度): 28.928338261263487
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces the 3rd place solution to the ICCV LargeFineFoodAI Retrieval Competition on Kaggle. Four basic models are independently trained with the weighted sum of ArcFace and Circle loss, then TTA and Ensemble are successively applied to improve feature representation ability. In addition, a new reranking method for retrieval is proposed based on diffusion and k-reciprocal reranking. Finally, our method scored 0.81219 and 0.81191 mAP@100 on the public and private leaderboard, respectively.
- Abstract(参考訳): 本稿では,ICCV LargeFineFoodAI Retrieval Competition on Kaggleの3位となるソリューションを紹介する。
4つの基本モデルは、ArcFaceとCircle損失の重み付けで独立に訓練され、TTAとEnsembleは、特徴表現能力を向上させるために順次適用される。
さらに,拡散とk-相反再位に基づく新たな検索手法を提案する。
最後に, 一般および民間のリーダーボード上でそれぞれ0.81219, 0.81191 mAP@100のスコアを得た。
関連論文リスト
- 3rd Place Solution to Large-scale Fine-grained Food Recognition [19.22837127792038]
本稿では,Kaggleで実施したLargeFineFoodAI-ICCV Workshop-Recognitionに関するソリューションの詳細について述べる。
アークフェイスと複合的な損失により、モデルは慎重に調整された構成で訓練され、最終的な結果を得るために組み立てられた。
論文 参考訳(メタデータ) (2025-10-24T07:05:28Z) - Squeeze the Soaked Sponge: Efficient Off-policy Reinforcement Finetuning for Large Language Model [56.92219181993453]
本稿では,PPOやGRPOなどのオンラインRFT手法をオフ・ポリティクスデータに活用するために,Reincarnating Mix-policy Proximal Policy Gradient (ReMix)を提案する。
ReMix は,(1) 効率的なトレーニングのための更新データ(UTD)比が増大した混成政策勾配,(2) 安定性と柔軟性のトレードオフのバランスをとるためのKL-Convex 政策制約,(3) 効率的な早期学習から安定した改善へのシームレスな移行を実現するための政策再編成の3つの主要な構成要素から構成される。
論文 参考訳(メタデータ) (2025-07-09T14:29:45Z) - Iterative Nash Policy Optimization: Aligning LLMs with General Preferences via No-Regret Learning [55.65738319966385]
我々は、新しいオンラインアルゴリズム、反復的ナッシュポリシー最適化(INPO)を提案する。
従来の方法とは異なり、INPOは個々の応答に対する期待される勝利率を推定する必要性を回避している。
LLaMA-3-8BベースのSFTモデルで、INPOはAlpacaEval 2.0で42.6%、Arena-Hardで37.8%の勝利率を達成した。
論文 参考訳(メタデータ) (2024-06-30T08:00:34Z) - OPD@NL4Opt: An ensemble approach for the NER task of the optimization
problem [1.3320917259299654]
NL4Optコンペティションサブタスク1(NERタスク)に対するアンサンブルアプローチを提案する。
このタスクでは、まず、競合データセットに基づいて事前訓練された言語モデルを微調整する。
我々はモデル一般化を強化するために、差分学習率と敵の訓練戦略を採用する。
論文 参考訳(メタデータ) (2023-01-06T11:07:55Z) - Region Rebalance for Long-Tailed Semantic Segmentation [89.84860341946283]
まず、ピクセル再バランスによってこの問題に対処する主な課題を調査し、特定する。
そして,本分析に基づいて,単純かつ効果的な領域再バランス方式を導出する。
提案された領域再均衡スキームでは、最先端のBEiTはADE20K val集合上のmIoUで+0.7%上昇する。
論文 参考訳(メタデータ) (2022-04-05T03:47:47Z) - Scenario Aware Speech Recognition: Advancements for Apollo Fearless
Steps & CHiME-4 Corpora [70.46867541361982]
本稿では、TRILLと呼ばれる三重項損失に基づく自己監督基準で訓練された一般的な非意味的音声表現について考察する。
我々は、Fearless Stepsの開発と評価のために、+5.42%と+3.18%の相対的なWER改善を観察した。
論文 参考訳(メタデータ) (2021-09-23T00:43:32Z) - Rotation Invariance and Extensive Data Augmentation: a strategy for the
Mitosis Domain Generalization (MIDOG) Challenge [1.52292571922932]
我々は,MIDOG 2021コンペティションに参加するための戦略を提示する。
このコンペティションの目的は、目に見えないターゲットスキャナーで取得した画像に対する解の一般化を評価することである。
本稿では,最先端のディープラーニング手法の組み合わせに基づく解を提案する。
論文 参考訳(メタデータ) (2021-09-02T10:09:02Z) - Plug-and-Play Rescaling Based Crowd Counting in Static Images [24.150701096083242]
我々は,新しいイメージパッチ再スケーリングモジュール (PRM) と3つの独立したPRMを用いたクラウドカウント手法を提案する。
提案するフレームワークは,PRMモジュールを用いて特別な処理を必要とする画像領域(パッチ)を再スケールする。
論文 参考訳(メタデータ) (2020-01-06T21:43:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。