論文の概要: Securing Reliability: A Brief Overview on Enhancing In-Context Learning
for Foundation Models
- arxiv url: http://arxiv.org/abs/2402.17671v1
- Date: Tue, 27 Feb 2024 16:44:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 15:25:46.897832
- Title: Securing Reliability: A Brief Overview on Enhancing In-Context Learning
for Foundation Models
- Title(参考訳): 信頼性の確保:基礎モデルにおける文脈内学習の強化に関する概要
- Authors: Yunpeng Huang, Yaonan Gu, Jingwei Xu, Zhihong Zhu, Zhaorun Chen,
Xiaoxing Ma
- Abstract要約: In-context Learning(ICL)パラダイムは成長するが、毒性、幻覚、相違、敵対的脆弱性、矛盾といった問題にも遭遇する。
ファンデーションモデル(FM)の信頼性と責任を保証することは、AIエコシステムの持続可能な開発に不可欠である。
- 参考スコア(独自算出の注目度): 10.889829033820433
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As foundation models (FMs) continue to shape the landscape of AI, the
in-context learning (ICL) paradigm thrives but also encounters issues such as
toxicity, hallucination, disparity, adversarial vulnerability, and
inconsistency. Ensuring the reliability and responsibility of FMs is crucial
for the sustainable development of the AI ecosystem. In this concise overview,
we investigate recent advancements in enhancing the reliability and
trustworthiness of FMs within ICL frameworks, focusing on four key
methodologies, each with its corresponding subgoals. We sincerely hope this
paper can provide valuable insights for researchers and practitioners
endeavoring to build safe and dependable FMs and foster a stable and consistent
ICL environment, thereby unlocking their vast potential.
- Abstract(参考訳): 基礎モデル(FM)がAIの風景を形作るにつれ、ICL(In-context Learning)パラダイムは繁栄する一方で、毒性、幻覚、格差、敵対的脆弱性、一貫性といった問題にも遭遇する。
FMの信頼性と責任を保証することは、AIエコシステムの持続可能な開発に不可欠である。
本総説では,ICLフレームワークにおけるFMの信頼性と信頼性向上の最近の進歩を考察し,それぞれに対応するサブゴールを持つ4つの主要な方法論に着目した。
この論文は、安全で信頼性の高いFMを構築し、安定的で一貫したICL環境を育むために、研究者や実践者たちに貴重な洞察を与えてくれることを期待しています。
関連論文リスト
- Position Paper: Assessing Robustness, Privacy, and Fairness in Federated
Learning Integrated with Foundation Models [39.86957940261993]
ファンデーションモデル(FM)をフェデレートラーニング(FL)に統合することは、堅牢性、プライバシ、公正性の点で新しい問題をもたらす。
我々は、関連するトレードオフを分析し、この統合によってもたらされる脅威と問題を明らかにし、これらの課題をナビゲートするための一連の基準と戦略を提案する。
論文 参考訳(メタデータ) (2024-02-02T19:26:00Z) - Exchange-of-Thought: Enhancing Large Language Model Capabilities through
Cross-Model Communication [76.04373033082948]
大規模言語モデル(LLM)は、最近、Chain-of-Thoughtテクニックによる複雑な推論タスクにおいて大きな進歩を遂げました。
本稿では,問題解決時のクロスモデル通信を可能にする新しいフレームワークであるExchange-of-Thought (EoT)を提案する。
論文 参考訳(メタデータ) (2023-12-04T11:53:56Z) - Assessing the Sustainability and Trustworthiness of Federated Learning
Models [7.228253116465784]
この研究は、最新の総合的な信頼に値するフェデレーテッドラーニングの分類にサステナビリティの柱を導入します。
FLシステムの環境影響を評価し、ハードウェア効率、フェデレーションの複雑さ、エネルギーグリッドの炭素強度の概念とメトリクスを取り入れている。
持続可能性柱を組み込むことで、FLモデルの信頼性を評価するアルゴリズムを実装している。
論文 参考訳(メタデータ) (2023-10-31T13:14:43Z) - When Foundation Model Meets Federated Learning: Motivations, Challenges,
and Future Directions [47.00147534252281]
ファンデーションモデル(FM)とフェデレートラーニング(FL)の交差は相互に利益をもたらす。
FLは、FMデータの可用性を拡張し、計算共有、トレーニングプロセスの分散、FL参加者の負担軽減を可能にする。
一方、FMは、その巨大さ、事前訓練された知識、および例外的な性能により、FLの堅牢な出発点として機能する。
論文 参考訳(メタデータ) (2023-06-27T15:15:55Z) - Trustworthy Federated Learning: A Survey [0.5089078998562185]
人工知能(AI)分野において、フェデレートラーニング(FL)が大きな進歩を遂げている。
我々は、Trustworthy FLの現状を概観し、既存のソリューションとTrustworthyに関連する明確に定義された柱を探求する。
本稿では,解釈可能性,公正性,セキュリティとプライバシの3つの柱を含む分類法を提案する。
論文 参考訳(メタデータ) (2023-05-19T09:11:26Z) - Learning Stability Attention in Vision-based End-to-end Driving Policies [100.57791628642624]
本稿では, 制御型リアプノフ関数(CLF)を利用して, エンドツーエンドのビジョンベースのポリシに安定性を付与する手法を提案する。
本稿では,att-CLFに密に統合された不確実性伝播手法を提案する。
論文 参考訳(メタデータ) (2023-04-05T20:31:10Z) - A Survey of Trustworthy Federated Learning with Perspectives on
Security, Robustness, and Privacy [47.89042524852868]
Federated Learning (FL) は,さまざまな現実のシナリオに対して,有望なソリューションとして注目されている。
しかし、データの分離とプライバシーに関する課題は、FLシステムの信頼性を脅かす。
論文 参考訳(メタデータ) (2023-02-21T12:52:12Z) - Reliable Federated Disentangling Network for Non-IID Domain Feature [62.73267904147804]
本稿では、RFedDisと呼ばれる新しい信頼性のあるフェデレーション・ディエンタングリング・ネットワークを提案する。
我々の知る限り、提案するRFedDisは、明らかな不確実性と特徴の混在に基づくFLアプローチを開発する最初の試みである。
提案するRFedDisは,他の最先端FL手法と比較して信頼性の高い優れた性能を提供する。
論文 参考訳(メタデータ) (2023-01-30T11:46:34Z) - Trustworthy Reinforcement Learning Against Intrinsic Vulnerabilities:
Robustness, Safety, and Generalizability [23.82257896376779]
信頼に足る強化学習アルゴリズムは、現実世界の問題を解決するのに長けるべきである。
本研究の目的は、信頼に値する強化学習の主な視点を概観することである。
論文 参考訳(メタデータ) (2022-09-16T16:10:08Z) - A Survey on Uncertainty Toolkits for Deep Learning [3.113304966059062]
ディープラーニング(DL)における不確実性推定のためのツールキットに関する第1回調査について述べる。
モデリングおよび評価能力に関する11のツールキットについて検討する。
最初の2つは、それぞれのフレームワークに大きな柔軟性とシームレスな統合を提供するが、最後の2つは、より大きな方法論的スコープを持っている。
論文 参考訳(メタデータ) (2022-05-02T17:23:06Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。