論文の概要: CAISAR: A platform for Characterizing Artificial Intelligence Safety and
Robustness
- arxiv url: http://arxiv.org/abs/2206.03044v1
- Date: Tue, 7 Jun 2022 06:36:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-08 16:04:01.882621
- Title: CAISAR: A platform for Characterizing Artificial Intelligence Safety and
Robustness
- Title(参考訳): CAISAR:人工知能の安全性とロバスト性を特徴付けるプラットフォーム
- Authors: Michele Alberti, Fran\c{c}ois Bobot (LIST (CEA)), Zakaria Chihani,
Julien Girard-Satabin (LIST (CEA)), Augustin Lemesle
- Abstract要約: CAISARは、検証問題を定義するための統一されたエントリポイントを提供する。
最先端の機械学習検証ツールを編成し、構成する。
我々の目的は、与えられた検証問題に適した方法論を選択することの負担を軽減し、V&Vプロセスを支援することである。
- 参考スコア(独自算出の注目度): 0.3733195086339485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present CAISAR, an open-source platform under active development for the
characterization of AI systems' robustness and safety. CAISAR provides a
unified entry point for defining verification problems by using WhyML, the
mature and expressive language of the Why3 verification platform. Moreover,
CAISAR orchestrates and composes state-of-the-art machine learning verification
tools which, individually, are not able to efficiently handle all problems but,
collectively, can cover a growing number of properties. Our aim is to assist,
on the one hand, the V\&V process by reducing the burden of choosing the
methodology tailored to a given verification problem, and on the other hand the
tools developers by factorizing useful features-visualization, report
generation, property description-in one platform. CAISAR will soon be available
at https://git.frama-c.com/pub/caisar.
- Abstract(参考訳): 我々は,AIシステムの堅牢性と安全性を評価できるオープンソースプラットフォームであるCAISARを提案する。
CAISARは、Why3検証プラットフォームの成熟した表現力のある言語であるWhyMLを使用して、検証問題を定義するための統一されたエントリポイントを提供する。
さらにcaisarは、最先端の機械学習検証ツールをオーケストレーションし、構成し、個別に、すべての問題を効率的に処理できないが、総じて、増加するプロパティをカバーすることができる。
我々は,与えられた検証問題に合わせた方法論選択の負担を軽減することで,v\&vプロセスを支援すると同時に,有用な機能-可視化,レポート生成,プロパティ記述-をひとつのプラットフォームに分解するツール開発を支援することを目的とする。
CAISARはもうすぐhttps://git.frama-c.com/pub/caisar.comで利用可能になる。
関連論文リスト
- Adaptive Tool Use in Large Language Models with Meta-Cognition Trigger [49.81945268343162]
我々は,外部ツール利用のための適応型意思決定戦略であるMeCoを提案する。
MeCoは表現空間の高レベル認知信号をキャプチャし、ツールを呼び出すタイミングを指示する。
実験の結果,MeCoはLSMの内部認知信号を正確に検出し,ツール使用による意思決定を大幅に改善することがわかった。
論文 参考訳(メタデータ) (2025-02-18T15:45:01Z) - Compromising Embodied Agents with Contextual Backdoor Attacks [69.71630408822767]
大型言語モデル(LLM)は、エンボディドインテリジェンスの発展に変化をもたらした。
本稿では,このプロセスにおけるバックドアセキュリティの重大な脅威を明らかにする。
ほんの少しの文脈的デモンストレーションを毒殺しただけで、攻撃者はブラックボックスLDMの文脈的環境を隠蔽することができる。
論文 参考訳(メタデータ) (2024-08-06T01:20:12Z) - Institutional Platform for Secure Self-Service Large Language Model Exploration [0.0]
論文では、データセットキュレーション、モデルトレーニング、セキュア推論、テキストベースの特徴抽出を含む、システムのアーキテクチャと重要な特徴について概説する。
プラットフォームはセキュアなLLMサービスの提供、プロセスとデータ分離の強調、エンドツーエンドの暗号化、ロールベースのリソース認証を目指している。
論文 参考訳(メタデータ) (2024-02-01T10:58:10Z) - HasTEE+ : Confidential Cloud Computing and Analytics with Haskell [50.994023665559496]
信頼性コンピューティングは、Trusted Execution Environments(TEEs)と呼ばれる特別なハードウェア隔離ユニットを使用して、コテナントクラウドデプロイメントにおける機密コードとデータの保護を可能にする。
低レベルのC/C++ベースのツールチェーンを提供するTEEは、固有のメモリ安全性の脆弱性の影響を受けやすく、明示的で暗黙的な情報フローのリークを監視するための言語構造が欠如している。
私たちは、Haskellに埋め込まれたドメイン固有言語(cla)であるHasTEE+を使って、上記の問題に対処します。
論文 参考訳(メタデータ) (2024-01-17T00:56:23Z) - Towards Vision-Language Mechanistic Interpretability: A Causal Tracing
Tool for BLIP [27.51318030253248]
我々は、画像条件付きテキスト生成の基礎となる神経機構の研究を可能にするために、一方向因果追跡ツールをBLIPに適用した。
我々はBLIP因果追跡ツールをオープンソースとしてリリースし、視覚言語による機械的解釈のさらなる実験を可能にする。
論文 参考訳(メタデータ) (2023-08-27T18:46:47Z) - CREATOR: Tool Creation for Disentangling Abstract and Concrete Reasoning of Large Language Models [74.22729793816451]
大規模言語モデル(LLM)はツールの利用において大きな進歩を遂げているが、その能力はAPIの可用性によって制限されている。
我々は、LCMがドキュメンテーションとコード実現を使って独自のツールを作成できる新しいフレームワークCREATORを提案する。
我々は,MATH と TabMWP のベンチマークで CREATOR を評価する。
論文 参考訳(メタデータ) (2023-05-23T17:51:52Z) - Tools and Practices for Responsible AI Engineering [0.5249805590164901]
我々は、責任あるAIエンジニアリングに対する重要なニーズに対処する2つの新しいソフトウェアライブラリを提示する。
hydra-zenは、複雑なAIアプリケーションとその振る舞いを再現するプロセスを劇的に単純化する。
rAI-toolboxは、AIモデルの堅牢性を評価し、拡張する方法を可能にするように設計されている。
論文 参考訳(メタデータ) (2022-01-14T19:47:46Z) - Realistic simulation of users for IT systems in cyber ranges [63.20765930558542]
ユーザアクティビティを生成するために,外部エージェントを用いて各マシンを計測する。
このエージェントは、決定論的および深層学習に基づく手法を組み合わせて、異なる環境に適応する。
また,会話や文書の作成を容易にする条件付きテキスト生成モデルを提案する。
論文 参考訳(メタデータ) (2021-11-23T10:53:29Z) - Detecting Security Fixes in Open-Source Repositories using Static Code
Analyzers [8.716427214870459]
機械学習(ML)アプリケーションにおけるコミットを表現する機能として,既製の静的コードアナライザの出力がどの程度使用されるかを検討する。
埋め込みの構築やMLモデルをトレーニングして、脆弱性修正を含むソースコードコミットを自動的に識別する方法について検討する。
当社のメソッドとcommit2vecの組み合わせは,脆弱性を修正するコミットの自動識別において,最先端技術よりも明確な改善であることがわかった。
論文 参考訳(メタデータ) (2021-05-07T15:57:17Z) - Scaling up Memory-Efficient Formal Verification Tools for Tree Ensembles [2.588973722689844]
ツール記述として提示されたVoTEアルゴリズムを形式化し拡張する。
コア検証エンジンからプロパティチェックを分離することで、汎用性のある要件の検証が可能となります。
数値認識と航空機衝突回避という2つのケーススタディで、このツールの適用を実証します。
論文 参考訳(メタデータ) (2021-05-06T11:50:22Z) - InfoBERT: Improving Robustness of Language Models from An Information
Theoretic Perspective [84.78604733927887]
BERTのような大規模言語モデルは、幅広いNLPタスクで最先端のパフォーマンスを実現している。
近年の研究では、このようなBERTベースのモデルが、テキストの敵対的攻撃の脅威に直面していることが示されている。
本稿では,事前学習した言語モデルの堅牢な微調整のための新しい学習フレームワークであるInfoBERTを提案する。
論文 参考訳(メタデータ) (2020-10-05T20:49:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。