論文の概要: Knowledge-Augmented Reasoning for EUAIA Compliance and Adversarial Robustness of LLMs
- arxiv url: http://arxiv.org/abs/2410.09078v1
- Date: Fri, 4 Oct 2024 18:23:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 16:48:15.060260
- Title: Knowledge-Augmented Reasoning for EUAIA Compliance and Adversarial Robustness of LLMs
- Title(参考訳): LLMのEUAIAコンプライアンスと対向ロバスト性に対する知識強化推論
- Authors: Tomas Bueno Momcilovic, Dian Balta, Beat Buesser, Giulio Zizzo, Mark Purcell,
- Abstract要約: EUAIA(EU AI Act)は、敵の堅牢性を確立するために必要なプロセスと交差するAIシステムの要件を導入している。
本稿では,2つの特性をブリッジする機能アーキテクチャを提案する。
我々は,知識強化に基づく推論レイヤで開発者と監査者を支援することを目的としている。
- 参考スコア(独自算出の注目度): 1.368472250332885
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The EU AI Act (EUAIA) introduces requirements for AI systems which intersect with the processes required to establish adversarial robustness. However, given the ambiguous language of regulation and the dynamicity of adversarial attacks, developers of systems with highly complex models such as LLMs may find their effort to be duplicated without the assurance of having achieved either compliance or robustness. This paper presents a functional architecture that focuses on bridging the two properties, by introducing components with clear reference to their source. Taking the detection layer recommended by the literature, and the reporting layer required by the law, we aim to support developers and auditors with a reasoning layer based on knowledge augmentation (rules, assurance cases, contextual mappings). Our findings demonstrate a novel direction for ensuring LLMs deployed in the EU are both compliant and adversarially robust, which underpin trustworthiness.
- Abstract(参考訳): EUAIA(EU AI Act)は、敵の堅牢性を確立するために必要なプロセスと交差するAIシステムの要件を導入している。
しかしながら、規制の曖昧な言語と敵攻撃の動的性を考えると、LSMのような高度に複雑なモデルを持つシステムの開発者は、コンプライアンスと堅牢性の両方を達成する保証なしに複製する努力をすることができる。
本稿では,2つの特性をブリッジする機能的アーキテクチャを提案する。
文献で推奨される検出層と法で要求される報告層を考慮し,知識強化(ルール,保証事例,コンテキストマッピング)に基づく推論層で開発者と監査者を支援することを目的とする。
我々の研究結果は、EUに配備されたLSMが適合し、かつ敵意的に堅牢であることを保証するための新たな方向性を示し、信頼性を支えている。
関連論文リスト
- Towards Assurance of LLM Adversarial Robustness using Ontology-Driven Argumentation [1.368472250332885]
本稿では,形式的議論に基づく大規模言語モデル (LLM) の保証のための新しいアプローチを提案する。
我々は、最先端の攻撃と防衛を構成し、人間の読み取り可能な保証ケースの作成を容易にする。
我々は,技術者,データ科学者,ユーザ,監査者を対象とすることで,理論と実践に影響を及ぼす。
論文 参考訳(メタデータ) (2024-10-10T14:24:43Z) - COMPL-AI Framework: A Technical Interpretation and LLM Benchmarking Suite for the EU Artificial Intelligence Act [40.233017376716305]
EUの人工知能法(AI Act)は、AI開発の責任を負うための重要なステップである。
明確な技術的解釈がなく、モデルのコンプライアンスを評価するのが難しい。
この研究は、この法律の最初の技術的解釈からなる包括的枠組みであるComple-AIを提示する。
論文 参考訳(メタデータ) (2024-10-10T14:23:51Z) - Towards Assuring EU AI Act Compliance and Adversarial Robustness of LLMs [1.368472250332885]
大規模な言語モデルは誤用しがちで、セキュリティの脅威に弱い。
欧州連合の人工知能法は、特定の文脈においてAIの堅牢性を強制しようとするものである。
論文 参考訳(メタデータ) (2024-10-04T18:38:49Z) - Developing Assurance Cases for Adversarial Robustness and Regulatory Compliance in LLMs [1.368472250332885]
我々は,大規模言語モデル(LLM)における対向ロバスト性および規制遵守のための保証事例開発のためのアプローチを開発する。
我々は、これらの攻撃を緩和し、EU AI Actへのコンプライアンスを確保することを目的とした、配置のさまざまな段階でガードレールを組み込んだ階層化されたフレームワークを提案する。
当社の手法を2つの模範的保証ケースで説明し、さまざまなコンテキストが、堅牢で準拠のAIシステムを保証するために、どのように適切な戦略を要求するかを強調した。
論文 参考訳(メタデータ) (2024-10-04T18:14:29Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - TRACE: TRansformer-based Attribution using Contrastive Embeddings in LLMs [50.259001311894295]
TRACE と呼ばれるコントラスト埋め込みを用いた新しいTRansformer-based Attribution フレームワークを提案する。
TRACEは情報源の属性を精度良く改善し,大規模言語モデルの信頼性と信頼性を高める貴重なツールであることを示す。
論文 参考訳(メタデータ) (2024-07-06T07:19:30Z) - Unveiling the Misuse Potential of Base Large Language Models via In-Context Learning [61.2224355547598]
大規模言語モデル(LLM)のオープンソース化は、アプリケーション開発、イノベーション、科学的進歩を加速させる。
我々の調査は、この信念に対する重大な監視を露呈している。
我々の研究は、慎重に設計されたデモを配置することにより、ベースLSMが悪意のある命令を効果的に解釈し実行できることを実証する。
論文 参考訳(メタデータ) (2024-04-16T13:22:54Z) - Data Poisoning for In-context Learning [49.77204165250528]
In-context Learning (ICL)は、新しいタスクに適応する革新的な能力として認識されている。
本論文は、ICLのデータ中毒に対する感受性の重大な問題について述べる。
ICLの学習メカニズムを活用するために考案された特殊攻撃フレームワークであるICLPoisonを紹介する。
論文 参考訳(メタデータ) (2024-02-03T14:20:20Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Red Teaming Language Model Detectors with Language Models [114.36392560711022]
大規模言語モデル(LLM)は、悪意のあるユーザによって悪用された場合、重大な安全性と倫理的リスクをもたらす。
近年,LLM生成テキストを検出し,LLMを保護するアルゴリズムが提案されている。
1) LLMの出力中の特定の単語を, 文脈が与えられたシノニムに置き換えること, 2) 生成者の書き方を変更するための指示プロンプトを自動で検索すること,である。
論文 参考訳(メタデータ) (2023-05-31T10:08:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。