論文の概要: Trustworthy Transfer Learning: A Survey
- arxiv url: http://arxiv.org/abs/2412.14116v1
- Date: Wed, 18 Dec 2024 18:03:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 13:23:33.735213
- Title: Trustworthy Transfer Learning: A Survey
- Title(参考訳): 信頼できるトランスファーラーニング: サーベイ
- Authors: Jun Wu, Jingrui He,
- Abstract要約: 我々は、知識伝達可能性と信頼性の観点から、伝達学習を理解する。
本稿では,様々な側面から信頼できる伝達学習の総合的なレビューを行う。
我々は,伝達学習を信頼性と信頼性のある方法で理解するためのオープンな質問と今後の方向性を強調した。
- 参考スコア(独自算出の注目度): 42.8355039035467
- License:
- Abstract: Transfer learning aims to transfer knowledge or information from a source domain to a relevant target domain. In this paper, we understand transfer learning from the perspectives of knowledge transferability and trustworthiness. This involves two research questions: How is knowledge transferability quantitatively measured and enhanced across domains? Can we trust the transferred knowledge in the transfer learning process? To answer these questions, this paper provides a comprehensive review of trustworthy transfer learning from various aspects, including problem definitions, theoretical analysis, empirical algorithms, and real-world applications. Specifically, we summarize recent theories and algorithms for understanding knowledge transferability under (within-domain) IID and non-IID assumptions. In addition to knowledge transferability, we review the impact of trustworthiness on transfer learning, e.g., whether the transferred knowledge is adversarially robust or algorithmically fair, how to transfer the knowledge under privacy-preserving constraints, etc. Beyond discussing the current advancements, we highlight the open questions and future directions for understanding transfer learning in a reliable and trustworthy manner.
- Abstract(参考訳): トランスファーラーニングは、ソースドメインから関連するターゲットドメインに知識や情報を転送することを目的としている。
本稿では,知識伝達可能性と信頼性の観点から,伝達学習を理解する。
これは2つの研究課題を含む: 知識伝達性は、ドメイン間で定量的に測定され、拡張されるか?
転校生の学習過程における転校生の知識を信頼できますか。
本稿では,問題定義,理論的解析,経験的アルゴリズム,実世界の応用など,さまざまな側面から信頼できる伝達学習の総合的なレビューを行う。
具体的には、(ドメイン内)IIDおよび非IID仮定に基づいて知識伝達可能性を理解するための最近の理論とアルゴリズムを要約する。
知識の伝達性に加えて,伝達学習における信頼度の影響,転向知識が逆向きに堅牢かアルゴリズム的に公正か,プライバシー保護制約下での伝達方法等を概観する。
現状の進歩を論じるだけでなく、トランスファーラーニングを信頼性と信頼性のある方法で理解するためのオープンな質問と今後の方向性を強調します。
関連論文リスト
- Bayesian Transfer Learning [13.983016833412307]
トランスファーラーニング」は、関連分野のデータを活用することにより、関心領域における推論および/または予測精度の向上を目指す。
本稿では,新しい学習課題を導く上で,事前知識に基づく学習の概念と自然に相容れないにもかかわらず,比較的注意を払われたバイーシアン学習のアプローチを取り上げる。
本稿では,これらの手法がドメイン間の転送に最適な情報を見つける問題にどのように対処するかを論じる。
論文 参考訳(メタデータ) (2023-12-20T23:38:17Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Graph Enabled Cross-Domain Knowledge Transfer [1.52292571922932]
クロスドメイン・ナレッジ・トランスファー(クロスドメイン・ナレッジ・トランスファー)は、優れた表現学習と関心領域における知識不足のギャップを軽減するためのアプローチである。
機械学習の観点からは、半教師付き学習のパラダイムは、基礎的な真実なしに大量のデータを活用し、目覚ましい学習性能向上を実現する。
論文 参考訳(メタデータ) (2023-04-07T03:02:10Z) - A Theory for Knowledge Transfer in Continual Learning [7.056222499095849]
タスクの継続的な学習は、ディープニューラルネットワークの活発な領域である。
最近の研究は、新しいタスクへのフォワード・ナレッジ・トランスファーについて研究している。
連続的な教師付き学習における知識伝達の理論を提案する。
論文 参考訳(メタデータ) (2022-08-14T22:28:26Z) - Transferability in Deep Learning: A Survey [80.67296873915176]
知識を習得し再利用する能力は、ディープラーニングにおける伝達可能性として知られている。
本研究は,深層学習における異なる孤立領域と伝達可能性との関係を関連付けるための調査である。
我々はベンチマークとオープンソースライブラリを実装し、転送可能性の観点からディープラーニング手法の公平な評価を可能にする。
論文 参考訳(メタデータ) (2022-01-15T15:03:17Z) - Kformer: Knowledge Injection in Transformer Feed-Forward Layers [107.71576133833148]
そこで我々は,Transformerのフィードフォワード層を通じて外部知識を組み込んだ新しい知識融合モデルKformerを提案する。
FFNに単に知識を注入するだけで、事前学習された言語モデルの能力が向上し、現在の知識融合法が促進されることを実証的に見出した。
論文 参考訳(メタデータ) (2022-01-15T03:00:27Z) - KAT: A Knowledge Augmented Transformer for Vision-and-Language [56.716531169609915]
我々は、OK-VQAのオープンドメインマルチモーダルタスクにおいて、最先端の強力な結果をもたらす新しいモデルである知識拡張トランスフォーマー(KAT)を提案する。
提案手法は,エンド・ツー・エンドのエンコーダ・デコーダアーキテクチャにおいて暗黙的かつ明示的な知識を統合しつつ,回答生成時に両知識源を共同で推論する。
我々の分析では、モデル予測の解釈可能性の向上に、明示的な知識統合のさらなる利点が見られる。
論文 参考訳(メタデータ) (2021-12-16T04:37:10Z) - What is being transferred in transfer learning? [51.6991244438545]
事前訓練した重量からトレーニングを行うと、モデルは損失景観の同じ流域に留まることを示す。
事前学習した重みからトレーニングする場合、モデルは損失ランドスケープの同じ流域に留まり、そのようなモデルの異なるインスタンスは特徴空間と類似しており、パラメータ空間は近接している。
論文 参考訳(メタデータ) (2020-08-26T17:23:40Z) - Uncovering the Connections Between Adversarial Transferability and
Knowledge Transferability [27.65302656389911]
我々は,知識伝達可能性と敵対的伝達可能性の関連性を分析し,実証する。
我々の理論的研究は、対向移動可能性は知識伝達可能性を示し、その逆であることを示している。
多様なデータセットの様々なシナリオに対する広範な実験を行い、対向移動可能性と知識伝達可能性との正の相関を示す。
論文 参考訳(メタデータ) (2020-06-25T16:04:47Z) - Limits of Transfer Learning [0.0]
我々は、転送する情報の集合を慎重に選択する必要性と、転送される情報とターゲット問題との依存関係の必要性を示す。
これらの結果は、機械学習のためのアルゴリズム検索フレームワークの上に構築され、転送を用いた幅広い学習問題に適用できる。
論文 参考訳(メタデータ) (2020-06-23T01:48:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。