論文の概要: RACONTEUR: A Knowledgeable, Insightful, and Portable LLM-Powered Shell Command Explainer
- arxiv url: http://arxiv.org/abs/2409.02074v1
- Date: Tue, 3 Sep 2024 17:22:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 00:04:31.311452
- Title: RACONTEUR: A Knowledgeable, Insightful, and Portable LLM-Powered Shell Command Explainer
- Title(参考訳): RACONTEUR: 知識があり、洞察力があり、ポータブルなLLM搭載シェルコマンド説明器
- Authors: Jiangyi Deng, Xinfeng Li, Yanjiao Chen, Yijie Bai, Haiqin Weng, Yan Liu, Tao Wei, Wenyuan Xu,
- Abstract要約: 大きな言語モデル(LLM)は、シェルコマンドの理解可能な説明を生成する可能性を解放した。
本稿では, LLMを用いた知識, 表現, 携帯型シェルコマンド説明装置であるRaconteurを紹介する。
Raconteurには、シェルコマンドに関する包括的な説明を提供するための専門的な知識が注がれている。
- 参考スコア(独自算出の注目度): 27.905830660931414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Malicious shell commands are linchpins to many cyber-attacks, but may not be easy to understand by security analysts due to complicated and often disguised code structures. Advances in large language models (LLMs) have unlocked the possibility of generating understandable explanations for shell commands. However, existing general-purpose LLMs suffer from a lack of expert knowledge and a tendency to hallucinate in the task of shell command explanation. In this paper, we present Raconteur, a knowledgeable, expressive and portable shell command explainer powered by LLM. Raconteur is infused with professional knowledge to provide comprehensive explanations on shell commands, including not only what the command does (i.e., behavior) but also why the command does it (i.e., purpose). To shed light on the high-level intent of the command, we also translate the natural-language-based explanation into standard technique & tactic defined by MITRE ATT&CK, the worldwide knowledge base of cybersecurity. To enable Raconteur to explain unseen private commands, we further develop a documentation retriever to obtain relevant information from complementary documentations to assist the explanation process. We have created a large-scale dataset for training and conducted extensive experiments to evaluate the capability of Raconteur in shell command explanation. The experiments verify that Raconteur is able to provide high-quality explanations and in-depth insight of the intent of the command.
- Abstract(参考訳): 悪意のあるシェルコマンドは多くのサイバー攻撃に対するリンチピンであるが、複雑でしばしば偽装されたコード構造のためにセキュリティアナリストが理解するのは容易ではないかもしれない。
大きな言語モデル(LLM)の進歩は、シェルコマンドの理解可能な説明を生成する可能性を解放した。
しかし、既存の汎用LLMは、専門知識の欠如と、シェルコマンド説明のタスクに幻覚を与える傾向に悩まされている。
本稿では, LLM を用いた知識, 表現, 携帯型シェルコマンド説明装置である Raconteur について述べる。
ラコントゥールには、コマンドが何をするか(例えば行動)だけでなく、コマンドがなぜそれを行うのか(すなわち目的)など、シェルコマンドに関する包括的な説明を提供する専門知識が注がれている。
コマンドの高レベルな意図を明らかにするために、我々は、自然言語に基づく説明を、世界中のサイバーセキュリティの知識基盤であるMITRE ATT&CKによって定義された標準技術と戦術に変換する。
さらに、Raconteurが未確認のプライベートコマンドを説明するために、補完的なドキュメントから関連情報を取得し、説明プロセスを支援する文書検索ツールを開発した。
我々は,大規模な訓練用データセットを作成し,Raconteurのシェルコマンド説明能力を評価するための広範囲な実験を行った。
実験は、Raconteurがこのコマンドの意図について、高品質な説明と詳細な洞察を提供することができることを検証した。
関連論文リスト
- Untangle the KNOT: Interweaving Conflicting Knowledge and Reasoning Skills in Large Language Models [51.72963030032491]
大規模言語モデル(LLM)の知識文書は、時代遅れや誤った知識のためにLLMの記憶と矛盾する可能性がある。
我々は,知識紛争解決のための新しいデータセットKNOTを構築した。
論文 参考訳(メタデータ) (2024-04-04T16:40:11Z) - LLMCheckup: Conversational Examination of Large Language Models via Interpretability Tools and Self-Explanations [26.340786701393768]
対話の形で説明を提供する解釈可能性ツールは,ユーザの理解を高める上で有効であることを示す。
しかしながら、対話ベースの説明のための現在のソリューションは、しばしば外部ツールやモジュールを必要とし、設計されていないタスクに簡単に転送できない。
ユーザがその振る舞いについて,最先端の大規模言語モデル(LLM)とチャットできる,アクセスしやすいツールを提案する。
論文 参考訳(メタデータ) (2024-01-23T09:11:07Z) - Code Prompting Elicits Conditional Reasoning Abilities in Text+Code LLMs [69.99031792995348]
自然言語の問題をコードに変換する一連のプロンプトであるコードプロンプトを導入します。
コードプロンプトは複数のLLMに対して高速に向上することがわかった。
GPT 3.5を解析した結果,入力問題のコードフォーマッティングが性能向上に不可欠であることが判明した。
論文 参考訳(メタデータ) (2024-01-18T15:32:24Z) - INTERS: Unlocking the Power of Large Language Models in Search with Instruction Tuning [59.07490387145391]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて印象的な機能を示している。
情報検索(IR)タスクへのそれらの適用は、自然言語における多くのIR固有の概念の頻繁な発生のため、いまだに困難である。
我々は,3つの基本IRカテゴリにまたがる20のタスクを含む新しいインストラクションチューニングデータセット InterS を導入する。
論文 参考訳(メタデータ) (2024-01-12T12:10:28Z) - From Language Modeling to Instruction Following: Understanding the Behavior Shift in LLMs after Instruction Tuning [63.63840740526497]
そこで本研究では,本質的な変化に着目した事前学習モデルの調整方法について検討する。
次に、事前訓練されたモデルと命令調整されたモデルから導かれた説明を比較することで、命令チューニングの影響について研究する。
この結果から,指導指導の3つの重要な影響が明らかになった。
論文 参考訳(メタデータ) (2023-09-30T21:16:05Z) - Can Large Language Models Understand Real-World Complex Instructions? [54.86632921036983]
大型言語モデル(LLM)は人間の指示を理解することができるが、複雑な命令には耐えられない。
既存のベンチマークでは、LLMが複雑な命令を理解する能力を評価するには不十分である。
複雑な命令を体系的に追従するLSMの能力を評価するためのベンチマークであるCellOを提案する。
論文 参考訳(メタデータ) (2023-09-17T04:18:39Z) - CLARA: Classifying and Disambiguating User Commands for Reliable Interactive Robotic Agents [29.55525755230298]
我々は、対話型ロボットエージェントの文脈において、与えられたユーザコマンドが明確であるか、曖昧であるか、あるいは不可能であるかを推測することに集中する。
あいまいなコマンドに対しては、質問生成を通じてユーザと対話することで、コマンドを曖昧にします。
本稿では,ロボットによる状況認識のためのデータセットについて述べる。
論文 参考訳(メタデータ) (2023-06-17T15:24:54Z) - Comparing Code Explanations Created by Students and Large Language
Models [4.526618922750769]
コードについて推論し、その目的を説明することは、コンピュータ科学者にとって基本的なスキルである。
可能なすべてのインプットに対してコードがどのように振る舞うかを、高いレベルの抽象化で記述する能力は、コード記述スキルと強く相関する。
既存の教育的なアプローチは、要求に応じてコード説明を作成するなど、コードを説明する能力を足場に置いていますが、現在、大規模な教室ではうまくスケールしていません。
論文 参考訳(メタデータ) (2023-04-08T06:52:54Z) - Explaining Patterns in Data with Language Models via Interpretable
Autoprompting [143.4162028260874]
本稿では,データを説明する自然言語文字列を生成するアルゴリズムである,解釈可能なオートプロンプト(iPrompt)を提案する。
iPromptは、基盤となるデータセット記述を正確に見つけることで、意味のある洞察を得ることができる。
fMRIデータセットを用いた実験は、iPromptが科学的発見に役立つ可能性を示している。
論文 参考訳(メタデータ) (2022-10-04T18:32:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。