論文の概要: Adaptive Guardrails For Large Language Models via Trust Modeling and In-Context Learning
- arxiv url: http://arxiv.org/abs/2408.08959v1
- Date: Fri, 16 Aug 2024 18:07:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-20 23:26:14.948329
- Title: Adaptive Guardrails For Large Language Models via Trust Modeling and In-Context Learning
- Title(参考訳): 信頼モデリングと文脈学習による大規模言語モデルの適応ガードレール
- Authors: Jinwei Hu, Yi Dong, Xiaowei Huang,
- Abstract要約: ガードレールはLarge Language Model (LLM) の不可欠な部分となっている。
本研究は,信頼モデリングによって支援され,文脈内学習により強化された適応型ガードレール機構を提案する。
ダイレクト・インタラクション・トラストと権限認証・信頼の組み合わせを利用することで、コンテンツモデレーションの厳格さをユーザの信頼性に合わせるように正確に調整する。
- 参考スコア(独自算出の注目度): 9.719986610417441
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Guardrails have become an integral part of Large language models (LLMs), by moderating harmful or toxic response in order to maintain LLMs' alignment to human expectations. However, the existing guardrail methods do not consider different needs and access rights of individual users, and treat all the users with the same rule. This study introduces an adaptive guardrail mechanism, supported by trust modeling and enhanced with in-context learning, to dynamically modulate access to sensitive content based on user trust metrics. By leveraging a combination of direct interaction trust and authority-verified trust, the system precisely tailors the strictness of content moderation to align with the user's credibility and the specific context of their inquiries. Our empirical evaluations demonstrate that the adaptive guardrail effectively meets diverse user needs, outperforming existing guardrails in practicality while securing sensitive information and precisely managing potentially hazardous content through a context-aware knowledge base. This work is the first to introduce trust-oriented concept within a guardrail system, offering a scalable solution that enriches the discourse on ethical deployment for next-generation LLMs.
- Abstract(参考訳): ガードレールは、LLMを人間の期待に合わせるために有害または有害な応答を緩和することで、大型言語モデル(LLM)の不可欠な部分となっている。
しかし,既存のガードレール方式では個々のユーザのニーズやアクセス権は考慮されておらず,同じルールですべてのユーザを扱います。
本研究では,ユーザ信頼度に基づく機密コンテンツへのアクセスを動的に調整するために,信頼モデリングによって支援され,コンテキスト内学習により強化された適応型ガードレール機構を提案する。
ダイレクト・インタラクション・トラストと権限検証・トラストの組み合わせを利用することで、コンテンツモデレーションの厳格さを正確に調整し、ユーザの信頼性と質問の特定のコンテキストに合わせる。
実験により,適応ガードレールは多様なユーザニーズを効果的に満たし,機密情報を確保しつつ既存のガードレールの実用性を向上し,コンテキスト認識の知識ベースを通じて潜在的に有害なコンテンツを正確に管理することを示す。
この研究は、ガードレールシステムに信頼指向の概念を導入し、次世代LLMの倫理的展開に関する言説を豊かにするスケーラブルなソリューションを提供する。
関連論文リスト
- On the Trustworthiness of Generative Foundation Models: Guideline, Assessment, and Perspective [314.7991906491166]
Generative Foundation Models (GenFMs) がトランスフォーメーションツールとして登場した。
彼らの広く採用されていることは、次元の信頼に関する重要な懸念を提起する。
本稿では,3つの主要なコントリビューションを通じて,これらの課題に対処するための包括的枠組みを提案する。
論文 参考訳(メタデータ) (2025-02-20T06:20:36Z) - Unveiling User Preferences: A Knowledge Graph and LLM-Driven Approach for Conversational Recommendation [55.5687800992432]
本稿では,Large Language Models (LLMs) とKGs (KGs) を相乗化するプラグイン・アンド・プレイフレームワークを提案する。
これにより、LLMはKGエンティティを簡潔な自然言語記述に変換することができ、ドメイン固有の知識を理解できるようになる。
論文 参考訳(メタデータ) (2024-11-16T11:47:21Z) - CURATe: Benchmarking Personalised Alignment of Conversational AI Assistants [5.7605009639020315]
5つのシナリオ(それぞれ337のユースケース)にわたる10の先行モデルの評価
トップランクの"ハームレス"モデルは、提供されたコンテキストを考えると、明らかにユーザにとって有害であると認識されるべきレコメンデーションを作成できる。
主要な障害モードには、矛盾する好みの適切な重み付け、梅毒(安全性よりも優先的な欲求)、コンテキストウィンドウ内の重要なユーザ情報に対する注意力の欠如、ユーザ固有の知識の一貫性のない適用が含まれる。
論文 参考訳(メタデータ) (2024-10-28T15:59:31Z) - Trustworthy AI: Securing Sensitive Data in Large Language Models [0.0]
大規模言語モデル(LLM)は、堅牢なテキスト生成と理解を可能にすることで自然言語処理(NLP)を変革した。
本稿では, 機密情報の開示を動的に制御するために, 信頼機構をLCMに組み込むための包括的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-26T19:02:33Z) - Con-ReCall: Detecting Pre-training Data in LLMs via Contrastive Decoding [118.75567341513897]
既存のメソッドは通常、ターゲットテキストを分離して分析するか、非メンバーコンテキストでのみ分析する。
Con-ReCallは、メンバと非メンバのコンテキストによって誘導される非対称な分布シフトを利用する新しいアプローチである。
論文 参考訳(メタデータ) (2024-09-05T09:10:38Z) - DePrompt: Desensitization and Evaluation of Personal Identifiable Information in Large Language Model Prompts [11.883785681042593]
DePromptは、プロンプトのための脱感作保護および有効性評価フレームワークである。
我々は、コンテキスト属性を統合し、プライバシタイプを定義し、高精度なPIIエンティティ識別を実現する。
私たちのフレームワークはプロンプトに適応可能で、テキストのユーザビリティに依存したシナリオに拡張できます。
論文 参考訳(メタデータ) (2024-08-16T02:38:25Z) - RELIC: Investigating Large Language Model Responses using Self-Consistency [58.63436505595177]
LLM(Large Language Models)は、フィクションと事実を混同し、幻覚として知られる非事実コンテンツを生成することで有名である。
本稿では,ユーザが生成したテキストの信頼性を把握できる対話型システムを提案する。
論文 参考訳(メタデータ) (2023-11-28T14:55:52Z) - A Systematic Literature Review of User Trust in AI-Enabled Systems: An
HCI Perspective [0.0]
人工知能(AI)のユーザ信頼は、採用を促進する重要な要素として、ますます認識され、証明されてきている。
本総説は, ユーザ信頼の定義, 影響要因, 測定方法の概要を, 実証研究23件から明らかにすることを目的としている。
論文 参考訳(メタデータ) (2023-04-18T07:58:09Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Personalized multi-faceted trust modeling to determine trust links in
social media and its potential for misinformation management [61.88858330222619]
ソーシャルメディアにおけるピア間の信頼関係を予測するためのアプローチを提案する。
本稿では,データ駆動型多面信頼モデルを提案する。
信頼を意識したアイテムレコメンデーションタスクで説明され、提案したフレームワークを大規模なYelpデータセットのコンテキストで評価する。
論文 参考訳(メタデータ) (2021-11-11T19:40:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。