論文の概要: Multi-Valued Cognitive Maps: Calculations with Linguistic Variables
without Using Numbers
- arxiv url: http://arxiv.org/abs/2108.04760v1
- Date: Tue, 10 Aug 2021 15:55:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-11 16:07:01.940632
- Title: Multi-Valued Cognitive Maps: Calculations with Linguistic Variables
without Using Numbers
- Title(参考訳): 多値認知地図:数を用いない言語変数による計算
- Authors: Dmitry Maximov
- Abstract要約: 本稿では,多値認知マップの概念を紹介する。
すべての変数と重みは、この概念において線形に順序づけられるのではなく、部分的に順序づけられているだけである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A concept of multi-valued cognitive maps is introduced in this paper. The
concept expands the fuzzy one. However, all variables and weights are not
linearly ordered in the concept, but are only partially-ordered. Such an ap-
proach allows us to operate in cognitive maps with partially-ordered linguis-
tic variables directly, without vague fuzzification/defuzzification methods.
Hence, we may consider more subtle differences in degrees of experts' uncer-
tainty, than in the fuzzy case. We prove the convergence of such cognitive maps
and give a simple computational example which demonstrates using such a
partially-ordered uncertainty degree scale.
- Abstract(参考訳): 本稿では,多値認知マップの概念を紹介する。
その概念はファジィなものを広げる。
しかし、全ての変数と重みは概念において線型順序付けではないが、部分的に順序付けされているだけである。
このようなアプローチにより,曖昧な曖昧/難読化手法を使わずに,言語変数を部分順序付けした認知地図上で直接操作することができる。
したがって、ファジィの場合よりも専門家の不確実性の度合いの微妙な違いを考慮することができる。
このような認知写像の収束を証明し、そのような半順序の不確かさ度スケールを用いて簡単な計算例を示す。
関連論文リスト
- Disentangled Representation Learning with the Gromov-Monge Gap [65.73194652234848]
乱れのないデータから歪んだ表現を学習することは、機械学習における根本的な課題である。
本稿では,2次最適輸送に基づく非交叉表現学習手法を提案する。
提案手法の有効性を4つの標準ベンチマークで示す。
論文 参考訳(メタデータ) (2024-07-10T16:51:32Z) - Explaining Predictive Uncertainty by Exposing Second-Order Effects [13.83164409095901]
本稿では,2次効果に基づく予測不確実性を説明する新しい手法を提案する。
提案手法は一般に適用可能であり,一般的な帰属手法を強力な二次不確実性説明器に変換することができる。
論文 参考訳(メタデータ) (2024-01-30T21:02:21Z) - Implicit Chain of Thought Reasoning via Knowledge Distillation [58.80851216530288]
思考推論ステップの連鎖を明示的に生成する代わりに、言語モデルの内部の隠れ状態を使用して暗黙の推論を行います。
このアプローチにより、明示的にチェーン・オブ・シントなしでは解決不可能なタスクを、非チェーン・オブ・シントに匹敵する速度で解決できることが分かりました。
論文 参考訳(メタデータ) (2023-11-02T17:59:49Z) - Multi-Label Knowledge Distillation [86.03990467785312]
本稿では,新しい多ラベル知識蒸留法を提案する。
一方、マルチラベル学習問題をバイナリ分類問題に分割することにより、ロジットからの情報的意味知識を利用する。
一方,ラベルワイド埋め込みの構造情報を活用することにより,学習した特徴表現の識別性を向上する。
論文 参考訳(メタデータ) (2023-08-12T03:19:08Z) - Noninvertibility and non-Markovianity of quantum dynamical maps [0.0]
非可逆パウリ写像の混合による(非)マルコフ的可逆写像の生成について検討する。
我々は、よく定義された半群極限の存在に繋がるマップのパラメータ化されたファミリーの基準の同定という、関連する潜在的に有用な問題を考える。
論文 参考訳(メタデータ) (2023-06-22T10:00:11Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - Learning Permutation-Invariant Embeddings for Description Logic Concepts [1.1650381752104297]
概念学習は、背景知識と入力例から記述論理の概念を学ぶことを扱う。
この非自明なタスクは、無限の準順序空間内の探索問題として定式化されることが多い。
学習問題を多ラベル分類問題として再構成し、置換不変な埋め込みを学習するニューラル埋め込みモデル(NERO)を提案する。
論文 参考訳(メタデータ) (2023-03-03T10:57:04Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Quantum computation of nonlinear maps [0.0]
線形ユニタリ演算のみを用いて、量子コンピュータ上の一般微分可能可逆非線形写像を計算する。
より多くの反復は、一般的な非保守的力学の任意の有限ユニタリエミュレーションでは避けられないスプリアスエコーを生成する。
論文 参考訳(メタデータ) (2021-05-15T23:57:26Z) - Learning explanations that are hard to vary [75.30552491694066]
例を越えた平均化は、異なる戦略を縫合する記憶とパッチワークのソリューションに有利であることを示す。
そこで我々は論理ANDに基づく単純な代替アルゴリズムを提案し,実験的に検証する。
論文 参考訳(メタデータ) (2020-09-01T10:17:48Z) - Fairwashing Explanations with Off-Manifold Detergent [4.934817254755008]
説明法はブラックボックス分類器をより透明にすることを約束する。
理論的にも実験的にも、これらの希望が現在根拠のないものであることを示す。
本稿では,既存の説明手法を改良し,より堅牢にすることを提案する。
論文 参考訳(メタデータ) (2020-07-20T09:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。