論文の概要: Algebraic Models for Qualified Aggregation in General Rough Sets, and
Reasoning Bias Discovery
- arxiv url: http://arxiv.org/abs/2309.03217v2
- Date: Fri, 22 Sep 2023 21:36:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 01:01:17.263077
- Title: Algebraic Models for Qualified Aggregation in General Rough Sets, and
Reasoning Bias Discovery
- Title(参考訳): 一般粗集合における定量アグリゲーションの代数モデルとバイアス発見の推論
- Authors: A Mani
- Abstract要約: この研究は、懐疑的、悲観的、楽観的、あるいは懐疑的な人間の推論の集約をモデル化したいという欲求に動機づけられている。
このモデルは、人間の推論における差別的・有害な行動の研究や、そのような行動を学ぶ機械学習アルゴリズムに適している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the context of general rough sets, the act of combining two things to form
another is not straightforward. The situation is similar for other theories
that concern uncertainty and vagueness. Such acts can be endowed with
additional meaning that go beyond structural conjunction and disjunction as in
the theory of $*$-norms and associated implications over $L$-fuzzy sets. In the
present research, algebraic models of acts of combining things in generalized
rough sets over lattices with approximation operators (called rough convenience
lattices) is invented. The investigation is strongly motivated by the desire to
model skeptical or pessimistic, and optimistic or possibilistic aggregation in
human reasoning, and the choice of operations is constrained by the
perspective. Fundamental results on the weak negations and implications
afforded by the minimal models are proved. In addition, the model is suitable
for the study of discriminatory/toxic behavior in human reasoning, and of ML
algorithms learning such behavior.
- Abstract(参考訳): 一般的な粗集合の文脈では、2つのものを組み合わせて別のものを作る行為は単純ではない。
この状況は不確実性と曖昧さを懸念する他の理論と似ている。
そのような作用は、$*$-ノルムの理論や$L$-ファジィ集合に対する関連する含意のように、構造的連結と解離を越えて追加的な意味を持つことができる。
本研究では,一般化された格子上の粗い集合と近似作用素(粗いコンビニエンス格子と呼ばれる)を結合する作用の代数モデルが考案された。
この調査は、懐疑的、悲観的、そして人間の推論における楽観的、またはポシビリスティックな集約をモデル化したいという願望に強く動機付けられており、操作の選択は視点によって制約されている。
最小モデルによる弱い否定と含意に関する基礎的な結果が証明された。
さらに、このモデルは、人間の推論における差別的・有害な行動の研究や、そのような行動を学ぶmlアルゴリズムに適している。
関連論文リスト
- Hard to Explain: On the Computational Hardness of In-Distribution Model Interpretation [0.9558392439655016]
機械学習(ML)モデルを解釈する能力はますます不可欠になりつつある。
近年の研究では、様々なモデルの意思決定を説明する計算複雑性を研究することにより、解釈可能性について正式に評価することが可能であることが示されている。
論文 参考訳(メタデータ) (2024-08-07T17:20:52Z) - Prediction Instability in Machine Learning Ensembles [0.0]
我々は、任意のアンサンブルが以下の予測不安定性の少なくとも1つの形式を示すことを示す定理を証明している。
基礎となるすべてのモデル間の合意を無視したり、基礎となるモデルが存在しない場合、その考えを変更したり、実際に予測することのないオプションを除外したりすることで、操作可能になります。
この分析はまた、特定のアンサンブルアルゴリズムから予測される特定の形の予測不安定性にも光を当てている。
論文 参考訳(メタデータ) (2024-07-03T15:26:02Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Quantifying the Sensitivity of Inverse Reinforcement Learning to
Misspecification [72.08225446179783]
逆強化学習は、エージェントの行動からエージェントの好みを推測することを目的としている。
これを行うには、$pi$が$R$とどのように関係しているかの振る舞いモデルが必要です。
我々は、IRL問題が行動モデルの不特定性にどれほど敏感であるかを分析する。
論文 参考訳(メタデータ) (2024-03-11T16:09:39Z) - Invariant Causal Set Covering Machines [64.86459157191346]
決定木のようなルールベースのモデルは、解釈可能な性質のために実践者にアピールする。
しかし、そのようなモデルを生成する学習アルゴリズムは、しばしば刺激的な関連に弱いため、因果関係の洞察を抽出することが保証されていない。
Invariant Causal Set Covering Machines は、古典的集合被覆マシンアルゴリズムの拡張であり、二値ルールの結合/分離を可能とし、スプリアス関係を確実に回避する。
論文 参考訳(メタデータ) (2023-06-07T20:52:01Z) - Finding Alignments Between Interpretable Causal Variables and
Distributed Neural Representations [62.65877150123775]
因果抽象化は、説明可能な人工知能のための有望な理論的枠組みである。
既存の因果抽象法では、高レベルモデルと低レベルモデルの間のアライメントをブルートフォースで探索する必要がある。
これらの制約を克服する分散アライメントサーチ(DAS)を提案する。
論文 参考訳(メタデータ) (2023-03-05T00:57:49Z) - Unifying Causal Inference and Reinforcement Learning using Higher-Order
Category Theory [4.119151469153588]
本稿では、強化学習における因果関係モデルと予測状態表現モデルの構造発見のための統一的な定式化を提案する。
具体的には、単純なオブジェクトを用いて、両方の設定で構造発見をモデル化する。
論文 参考訳(メタデータ) (2022-09-13T19:04:18Z) - Rationales for Sequential Predictions [117.93025782838123]
シーケンスモデルは現代のNLPシステムにおいて重要な要素であるが、それらの予測は説明が難しい。
モデル説明は有理だが、個々のモデル予測を説明できる文脈のサブセットを考える。
この目的を近似する効率的なグリードアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-14T01:25:15Z) - Understanding Double Descent Requires a Fine-Grained Bias-Variance
Decomposition [34.235007566913396]
ラベルに関連付けられた用語への分散の解釈可能で対称的な分解について述べる。
バイアスはネットワーク幅とともに単調に減少するが、分散項は非単調な振る舞いを示す。
我々はまた、著しく豊かな現象論も分析する。
論文 参考訳(メタデータ) (2020-11-04T21:04:02Z) - Model Interpretability through the Lens of Computational Complexity [1.6631602844999724]
民間の解釈可能性主張が計算複雑性理論に相関しているかどうかを考察する。
線形モデルとツリーモデルの両方がニューラルネットワークよりも厳密に解釈可能であることを示す。
論文 参考訳(メタデータ) (2020-10-23T09:50:40Z) - Pairwise Supervision Can Provably Elicit a Decision Boundary [84.58020117487898]
類似性学習は、パターンのペア間の関係を予測することによって有用な表現を引き出す問題である。
類似性学習は、決定境界を直接引き出すことによって二項分類を解くことができることを示す。
論文 参考訳(メタデータ) (2020-06-11T05:35:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。