論文の概要: Causal Autoencoder-like Generation of Feedback Fuzzy Cognitive Maps with an LLM Agent
- arxiv url: http://arxiv.org/abs/2509.25593v1
- Date: Mon, 29 Sep 2025 23:33:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.364375
- Title: Causal Autoencoder-like Generation of Feedback Fuzzy Cognitive Maps with an LLM Agent
- Title(参考訳): LLMエージェントを用いたフィードバックファジィ認知マップの因果オートエンコーダ様生成
- Authors: Akash Kumar Panda, Olaoluwa Adigun, Bart Kosko,
- Abstract要約: 大規模言語モデル(LLM)は、フィードバック因果ファジィ認知マップ(FCM)をテキストにマッピングし、テキストからFCMを再構築する。
この説明可能なAIシステムは、FCMからそれ自身へのアイデンティティマップを近似し、オートエンコーダ(AE)の操作に似ている。
- 参考スコア(独自算出の注目度): 0.13999481573773068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A large language model (LLM) can map a feedback causal fuzzy cognitive map (FCM) into text and then reconstruct the FCM from the text. This explainable AI system approximates an identity map from the FCM to itself and resembles the operation of an autoencoder (AE). Both the encoder and the decoder explain their decisions in contrast to black-box AEs. Humans can read and interpret the encoded text in contrast to the hidden variables and synaptic webs in AEs. The LLM agent approximates the identity map through a sequence of system instructions that does not compare the output to the input. The reconstruction is lossy because it removes weak causal edges or rules while it preserves strong causal edges. The encoder preserves the strong causal edges even when it trades off some details about the FCM to make the text sound more natural.
- Abstract(参考訳): 大規模言語モデル(LLM)は、フィードバック因果ファジィ認知マップ(FCM)をテキストにマッピングし、テキストからFCMを再構築する。
この説明可能なAIシステムは、FCMからそれ自身へのアイデンティティマップを近似し、オートエンコーダ(AE)の操作に似ている。
エンコーダとデコーダは、ブラックボックスAEとは対照的に、それぞれの決定を説明している。
人間は、AEの隠れ変数やシナプスWebと対照的に、エンコードされたテキストを読み、解釈することができる。
LLMエージェントは、出力と入力を比較しないシステム命令のシーケンスを通じてアイデンティティマップを近似する。
再建は、弱い因果縁や規則を取り除き、強い因果縁を保っているため、失われる。
エンコーダは、FCMの詳細を交換してテキストをより自然に聞こえるようにしても、強い因果縁を保っている。
関連論文リスト
- Hyperdimensional Probe: Decoding LLM Representations via Vector Symbolic Architectures [12.466522376751811]
超次元プローブは、大規模言語モデルベクトル空間から情報を復号するための新しいパラダイムである。
シンボリック表現とニューラルプローブのアイデアを組み合わせて、モデルの残留ストリームを解釈可能な概念に投影する。
我々の研究は、LLMベクトル空間における情報復号化を進め、神経表現からより情報的、解釈可能、構造化された特徴を抽出することを可能にする。
論文 参考訳(メタデータ) (2025-09-29T16:59:07Z) - When Backdoors Speak: Understanding LLM Backdoor Attacks Through Model-Generated Explanations [58.27927090394458]
大規模言語モデル(LLM)は、バックドア攻撃に弱いことが知られている。
本稿では,自然言語説明の新しいレンズによるバックドア攻撃について検討する。
以上の結果から,バックドアモデルではクリーンな入力に対してコヒーレントな説明が得られたが,有毒なデータに対して多様かつ論理的に欠陥のある説明が得られた。
論文 参考訳(メタデータ) (2024-11-19T18:11:36Z) - MLLM can see? Dynamic Correction Decoding for Hallucination Mitigation [50.73561815838431]
MLLM(Multimodal Large Language Models)はしばしば幻覚現象を示す。
実験により,MLLMは最終出力のオブジェクトを誤って生成するが,前層の視覚的オブジェクトを認識できることがわかった。
そこで本研究では,MLLMs DeCoの動的補正復号法を提案する。この手法は,適切な先行層を適応的に選択し,最終層に知識を比例的に統合し,出力ロジットを調整する。
論文 参考訳(メタデータ) (2024-10-15T16:57:44Z) - Large Language Models as Carriers of Hidden Messages [0.0]
単純な微調整は、隠されたテキストを大きな言語モデル(LLM)に埋め込むことができる。
我々の研究は、隠れたテキストを微調整で埋め込むことが、膨大な数のトリガーによって安全であるように見えるが、抽出に弱いことを実証している。
我々は,LLMの語彙からトークンを反復的に供給し,高いトークン確率を持つシーケンスを明らかにするunconditional Token Forcing (UTF)と呼ばれる抽出攻撃を導入し,隠れテキスト候補を示す。
論文 参考訳(メタデータ) (2024-06-04T16:49:06Z) - Rethinking Patch Dependence for Masked Autoencoders [89.02576415930963]
マスク付きオートエンコーダ(MAE)のデコーダにおけるパッチ間の依存関係が表現学習に与える影響について検討する。
クロスアテンションマスク付きオートエンコーダ(CrossMAE)の簡易な視覚前訓練フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-25T18:49:57Z) - Harnessing the Zero-Shot Power of Instruction-Tuned Large Language Model in End-to-End Speech Recognition [23.172469312225694]
自動音声認識(ASR)におけるテキスト生成プロセスの指導に,命令調整付き大言語モデル(LLM)を用いることを提案する。
提案手法はCTCとアテンションアーキテクチャを併用し,LLMはデコーダのフロントエンド特徴抽出器として機能する。
実験結果から,LLM誘導モデルによる単語誤り率の相対的な増加率は,主要なベンチマークで約13%であった。
論文 参考訳(メタデータ) (2023-09-19T11:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。