論文の概要: One-Shot Knowledge Transfer for Scalable Person Re-Identification
- arxiv url: http://arxiv.org/abs/2511.06016v1
- Date: Sat, 08 Nov 2025 14:06:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.709536
- Title: One-Shot Knowledge Transfer for Scalable Person Re-Identification
- Title(参考訳): スケーラブルな人物再同定のためのワンショット知識伝達
- Authors: Longhua Li, Lei Qi, Xin Geng,
- Abstract要約: 人身認証(ReID)におけるエッジコンピューティングは、中央クラウドサーバの負荷を低減し、ユーザのプライバシを確保するために不可欠である。
我々は,教師モデルの知識を重みチェーンと呼ばれる中間キャリアに集約する,OSKTという新しい知識継承手法を提案する。
OSKTは、各ターゲットモデルに対する頻繁な計算を不要にするワンタイムの知識伝達の利点により、最先端の圧縮手法よりも大幅に優れている。
- 参考スコア(独自算出の注目度): 39.917962639543696
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Edge computing in person re-identification (ReID) is crucial for reducing the load on central cloud servers and ensuring user privacy. Conventional compression methods for obtaining compact models require computations for each individual student model. When multiple models of varying sizes are needed to accommodate different resource conditions, this leads to repetitive and cumbersome computations. To address this challenge, we propose a novel knowledge inheritance approach named OSKT (One-Shot Knowledge Transfer), which consolidates the knowledge of the teacher model into an intermediate carrier called a weight chain. When a downstream scenario demands a model that meets specific resource constraints, this weight chain can be expanded to the target model size without additional computation. OSKT significantly outperforms state-of-the-art compression methods, with the added advantage of one-time knowledge transfer that eliminates the need for frequent computations for each target model.
- Abstract(参考訳): 人身認証(ReID)におけるエッジコンピューティングは、中央クラウドサーバの負荷を低減し、ユーザのプライバシを確保するために不可欠である。
コンパクトモデルを得るための従来の圧縮方法は、個々の学生モデルに対して計算を必要とする。
異なるリソース条件を満たすために、異なるサイズの複数のモデルが必要な場合、これは反復的かつ煩雑な計算につながる。
この課題に対処するために,教師モデルの知識を重みチェーンと呼ばれる中間キャリアに統合するOSKT(One-Shot Knowledge Transfer)という新しい知識継承手法を提案する。
ダウンストリームシナリオが、特定のリソース制約を満たすモデルを要求する場合、この重み付けチェーンは、追加の計算なしでターゲットモデルサイズに拡張することができる。
OSKTは、各ターゲットモデルに対する頻繁な計算を不要にするワンタイムの知識伝達の利点により、最先端の圧縮手法よりも大幅に優れている。
関連論文リスト
- Intention-Conditioned Flow Occupancy Models [80.42634994902858]
大規模な事前学習は、今日の機械学習研究のやり方を根本的に変えた。
同じフレームワークを強化学習に適用することは、RLの中核的な課題に対処するための魅力的な方法を提供するので、魅力的です。
生成AIの最近の進歩は、高度に複雑な分布をモデリングするための新しいツールを提供している。
論文 参考訳(メタデータ) (2025-06-10T15:27:46Z) - Knowledge Grafting of Large Language Models [35.09135973799701]
大規模言語モデル(LLM)研究において,クロスキャパビリティ・トランスファーは重要な課題である。
FuseLLMやFuseChatといった最近の研究は、複数のモデル機能を軽量モデルに転送する可能性を実証している。
本稿では,SkillPackフォーマットのターゲットモデルにソースモデル機能を格納する新しい手法であるGraftLLMを紹介する。
論文 参考訳(メタデータ) (2025-05-24T04:43:24Z) - CoTFormer: A Chain-of-Thought Driven Architecture with Budget-Adaptive Computation Cost at Inference [36.753384415107774]
言語モデルをより大きく、より深く拡張することで、パフォーマンスが大幅に向上した。
トークンレベルでのChain-of-Thought(CoT)を忠実に模倣する新しいアーキテクチャであるCoTFormerを提案する。
精度を下げることなく計算コストを大幅に削減できることを示す。
論文 参考訳(メタデータ) (2023-10-16T21:37:34Z) - Reusing Pretrained Models by Multi-linear Operators for Efficient
Training [65.64075958382034]
大規模なモデルをスクラッチからトレーニングすることは、通常、かなりの量のリソースを必要とする。
bert2BERT や LiGO といった最近の研究は、大規模なモデルを初期化するために、小さな事前訓練されたモデルを再利用している。
本稿では,対象モデルの各重みを事前学習モデルの全重みに線形に相関させる手法を提案する。
論文 参考訳(メタデータ) (2023-10-16T06:16:47Z) - Towards a Better Theoretical Understanding of Independent Subnetwork Training [56.24689348875711]
独立サブネットワークトレーニング(IST)の理論的考察
ISTは、上記の問題を解決するための、最近提案され、非常に効果的である。
圧縮通信を用いた分散手法など,ISTと代替手法の基本的な違いを同定する。
論文 参考訳(メタデータ) (2023-06-28T18:14:22Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - COMET: A Comprehensive Cluster Design Methodology for Distributed Deep Learning Training [42.514897110537596]
現代のディープラーニング(DL)モデルは、トレーニングする専門的でハイエンドなノードの大規模なクラスタを必要とするサイズに成長しています。
このようなクラスタを設計してパフォーマンスと利用の両方を最大化します。
本稿では,並列化戦略と鍵クラスタリソースのプロビジョニングが分散DLトレーニングのパフォーマンスに与える影響を共同で研究する,総合的なクラスタ設計方法論とワークフローであるCOMETを紹介する。
論文 参考訳(メタデータ) (2022-11-30T00:32:37Z) - Deep learning model compression using network sensitivity and gradients [3.52359746858894]
非リトレーニング条件とリトレーニング条件の両方に対するモデル圧縮アルゴリズムを提案する。
まず,ネットワークパラメータの感度を用いた深層学習モデルの圧縮のためのBin & Quantアルゴリズムを提案する。
第2のケースでは、新しい勾配重み付きk平均クラスタリングアルゴリズム(GWK)を提案する。
論文 参考訳(メタデータ) (2022-10-11T03:02:40Z) - Differentiable Network Pruning for Microcontrollers [14.864940447206871]
本稿では,畳み込みニューラルネットワークのための可変構造型ネットワークプルーニング法を提案する。
モデル固有のリソース使用量とパラメータ重要度フィードバックを統合し、高度に圧縮されかつ正確な分類モデルを得る。
論文 参考訳(メタデータ) (2021-10-15T20:26:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。