論文の概要: Causal Autoencoder-like Generation of Feedback Fuzzy Cognitive Maps with an LLM Agent
- arxiv url: http://arxiv.org/abs/2509.25593v1
- Date: Mon, 29 Sep 2025 23:33:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.364375
- Title: Causal Autoencoder-like Generation of Feedback Fuzzy Cognitive Maps with an LLM Agent
- Title(参考訳): LLMエージェントを用いたフィードバックファジィ認知マップの因果オートエンコーダ様生成
- Authors: Akash Kumar Panda, Olaoluwa Adigun, Bart Kosko,
- Abstract要約: 大規模言語モデル(LLM)は、フィードバック因果ファジィ認知マップ(FCM)をテキストにマッピングし、テキストからFCMを再構築する。
この説明可能なAIシステムは、FCMからそれ自身へのアイデンティティマップを近似し、オートエンコーダ(AE)の操作に似ている。
- 参考スコア(独自算出の注目度): 0.13999481573773068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A large language model (LLM) can map a feedback causal fuzzy cognitive map (FCM) into text and then reconstruct the FCM from the text. This explainable AI system approximates an identity map from the FCM to itself and resembles the operation of an autoencoder (AE). Both the encoder and the decoder explain their decisions in contrast to black-box AEs. Humans can read and interpret the encoded text in contrast to the hidden variables and synaptic webs in AEs. The LLM agent approximates the identity map through a sequence of system instructions that does not compare the output to the input. The reconstruction is lossy because it removes weak causal edges or rules while it preserves strong causal edges. The encoder preserves the strong causal edges even when it trades off some details about the FCM to make the text sound more natural.
- Abstract(参考訳): 大規模言語モデル(LLM)は、フィードバック因果ファジィ認知マップ(FCM)をテキストにマッピングし、テキストからFCMを再構築する。
この説明可能なAIシステムは、FCMからそれ自身へのアイデンティティマップを近似し、オートエンコーダ(AE)の操作に似ている。
エンコーダとデコーダは、ブラックボックスAEとは対照的に、それぞれの決定を説明している。
人間は、AEの隠れ変数やシナプスWebと対照的に、エンコードされたテキストを読み、解釈することができる。
LLMエージェントは、出力と入力を比較しないシステム命令のシーケンスを通じてアイデンティティマップを近似する。
再建は、弱い因果縁や規則を取り除き、強い因果縁を保っているため、失われる。
エンコーダは、FCMの詳細を交換してテキストをより自然に聞こえるようにしても、強い因果縁を保っている。
関連論文リスト
- Modality Collapse as Mismatched Decoding: Information-Theoretic Limits of Multimodal LLMs [1.5567685129899713]
マルチモーダルLLMは音声や画像を処理することができるが、話者の声や物体のテクスチャを見ることはできない。
これは符号化の失敗ではないが、64~71%のモダリティ特異的な分散がデコーダの損失を改善することが示されている。
感情目標を用いたトレーニングは、他の属性に影響を与えることなく、感情のアクセシビリティを向上させる。
論文 参考訳(メタデータ) (2026-02-26T15:52:48Z) - Think-Then-Generate: Reasoning-Aware Text-to-Image Diffusion with LLM Encoders [46.79030733172859]
本稿では,テキスト・トゥ・イメージ(T2I)拡散モデルのためのシンプソン・リライト(T2G)パラダイムを提案する。
推論に基づく画像生成と編集ベンチマークにより,現実の一貫性,セマンティックアライメント,視覚的リアリズムが大幅に改善された。
この結果は,推論,表現,実証能力を備えた次世代統一モデルに向けての有望な一歩となる。
論文 参考訳(メタデータ) (2026-01-15T12:19:05Z) - 1 + 1 > 2: Detector-Empowered Video Large Language Model for Spatio-Temporal Grounding and Reasoning [53.28271278708241]
本稿では,DEViL の略である Detector-Empowered Video LLM を提案する。
DEViLはオープンボキャブラリ検出器(OVD)とビデオLLMを結合する
単に空間的なプロンプトやセグメンタスイッチとして機能するトークンとは異なり、RTTは制御信号とOVDのテキスト埋め込みの置き換えの両方として機能する。
論文 参考訳(メタデータ) (2025-12-07T06:11:15Z) - Hyperdimensional Probe: Decoding LLM Representations via Vector Symbolic Architectures [12.466522376751811]
超次元プローブは、大規模言語モデルベクトル空間から情報を復号するための新しいパラダイムである。
シンボリック表現とニューラルプローブのアイデアを組み合わせて、モデルの残留ストリームを解釈可能な概念に投影する。
我々の研究は、LLMベクトル空間における情報復号化を進め、神経表現からより情報的、解釈可能、構造化された特徴を抽出することを可能にする。
論文 参考訳(メタデータ) (2025-09-29T16:59:07Z) - When Backdoors Speak: Understanding LLM Backdoor Attacks Through Model-Generated Explanations [58.27927090394458]
大規模言語モデル(LLM)は、バックドア攻撃に弱いことが知られている。
本稿では,自然言語説明の新しいレンズによるバックドア攻撃について検討する。
以上の結果から,バックドアモデルではクリーンな入力に対してコヒーレントな説明が得られたが,有毒なデータに対して多様かつ論理的に欠陥のある説明が得られた。
論文 参考訳(メタデータ) (2024-11-19T18:11:36Z) - MLLM can see? Dynamic Correction Decoding for Hallucination Mitigation [50.73561815838431]
MLLM(Multimodal Large Language Models)はしばしば幻覚現象を示す。
実験により,MLLMは最終出力のオブジェクトを誤って生成するが,前層の視覚的オブジェクトを認識できることがわかった。
そこで本研究では,MLLMs DeCoの動的補正復号法を提案する。この手法は,適切な先行層を適応的に選択し,最終層に知識を比例的に統合し,出力ロジットを調整する。
論文 参考訳(メタデータ) (2024-10-15T16:57:44Z) - DAMRO: Dive into the Attention Mechanism of LVLM to Reduce Object Hallucination [11.15019062354505]
画像トークン上でのLLM(Large Language Model)デコーダの注意分布は,視覚的エンコーダと非常に一致していることがわかった。
我々は,D$ive を$A$ttention $M$echanism of LVLM に変換する新しいトレーニングフリー戦略 DAMRO を提案する。
LLaVA-1.5, LLaVA-NeXT, InstructBLIPなどのLVLMに対して, POPE, CHAIR, MME, GPT-4V Aided Evaluation などのベンチマークを用いて評価を行った。
論文 参考訳(メタデータ) (2024-10-06T15:12:09Z) - Large Language Models as Carriers of Hidden Messages [0.0]
単純な微調整は、隠されたテキストを大きな言語モデル(LLM)に埋め込むことができる。
我々の研究は、隠れたテキストを微調整で埋め込むことが、膨大な数のトリガーによって安全であるように見えるが、抽出に弱いことを実証している。
我々は,LLMの語彙からトークンを反復的に供給し,高いトークン確率を持つシーケンスを明らかにするunconditional Token Forcing (UTF)と呼ばれる抽出攻撃を導入し,隠れテキスト候補を示す。
論文 参考訳(メタデータ) (2024-06-04T16:49:06Z) - Rethinking Patch Dependence for Masked Autoencoders [89.02576415930963]
マスク付きオートエンコーダ(MAE)のデコーダにおけるパッチ間の依存関係が表現学習に与える影響について検討する。
クロスアテンションマスク付きオートエンコーダ(CrossMAE)の簡易な視覚前訓練フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-25T18:49:57Z) - Harnessing the Zero-Shot Power of Instruction-Tuned Large Language Model in End-to-End Speech Recognition [23.172469312225694]
自動音声認識(ASR)におけるテキスト生成プロセスの指導に,命令調整付き大言語モデル(LLM)を用いることを提案する。
提案手法はCTCとアテンションアーキテクチャを併用し,LLMはデコーダのフロントエンド特徴抽出器として機能する。
実験結果から,LLM誘導モデルによる単語誤り率の相対的な増加率は,主要なベンチマークで約13%であった。
論文 参考訳(メタデータ) (2023-09-19T11:10:50Z) - Fast End-to-End Speech Recognition via a Non-Autoregressive Model and
Cross-Modal Knowledge Transferring from BERT [72.93855288283059]
LASO (Listen Attentively, and Spell Once) と呼ばれる非自動回帰音声認識モデルを提案する。
モデルは、エンコーダ、デコーダ、および位置依存集合体(PDS)からなる。
論文 参考訳(メタデータ) (2021-02-15T15:18:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。