論文の概要: Primary and Secondary Factor Consistency as Domain Knowledge to Guide
Happiness Computing in Online Assessment
- arxiv url: http://arxiv.org/abs/2402.12398v1
- Date: Sat, 17 Feb 2024 05:39:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 19:04:09.060321
- Title: Primary and Secondary Factor Consistency as Domain Knowledge to Guide
Happiness Computing in Online Assessment
- Title(参考訳): ドメイン知識としての初等・二次的要因の整合性
- Authors: Xiaohua Wu and Lin Li and Xiaohui Tao and Frank Xing and Jingling Yuan
- Abstract要約: 説明付きの高度な機械学習(ML)モデルの多くは、オンラインアセスメントの幸福度を計算するために使用される。
幸福要因の一次関係や二次関係のようなドメイン知識の制約は、これらのモデルには欠落している。
本稿は、実証的研究の観点から、説明整合性に関する新たな洞察を提供する試みである。
- 参考スコア(独自算出の注目度): 11.212219482847397
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Happiness computing based on large-scale online web data and machine learning
methods is an emerging research topic that underpins a range of issues, from
personal growth to social stability. Many advanced Machine Learning (ML) models
with explanations are used to compute the happiness online assessment while
maintaining high accuracy of results. However, domain knowledge constraints,
such as the primary and secondary relations of happiness factors, are absent
from these models, which limits the association between computing results and
the right reasons for why they occurred. This article attempts to provide new
insights into the explanation consistency from an empirical study perspective.
Then we study how to represent and introduce domain knowledge constraints to
make ML models more trustworthy. We achieve this through: (1) proving that
multiple prediction models with additive factor attributions will have the
desirable property of primary and secondary relations consistency, and (2)
showing that factor relations with quantity can be represented as an importance
distribution for encoding domain knowledge. Factor explanation difference is
penalized by the Kullback-Leibler divergence-based loss among computing models.
Experimental results using two online web datasets show that domain knowledge
of stable factor relations exists. Using this knowledge not only improves
happiness computing accuracy but also reveals more significative happiness
factors for assisting decisions well.
- Abstract(参考訳): 大規模オンラインWebデータと機械学習手法に基づく幸福コンピューティングは、個人的成長から社会的安定に至るまで、さまざまな問題を支える新たな研究トピックである。
説明付きの高度な機械学習(ML)モデルの多くは、結果の高精度を維持しながら、オンライン評価の幸福度を計算するために使用される。
しかしながら、幸福要因の一次関係や二次関係といったドメイン知識の制約は、これらのモデルに欠如しており、計算結果とそれらの発生理由の関連性が制限されている。
この記事では,経験的研究の観点から,説明の一貫性に関する新たな洞察の提供を試みる。
次に,mlモデルの信頼性を高めるために,ドメイン知識制約の表現と導入について検討する。
1) 加法因子帰属を伴う複数の予測モデルが1次および2次関係一貫性の望ましい性質を持つことを示すこと, (2) 量との因子関係をドメイン知識のエンコーディングにおける重要分布として表現できることを示すこと。
Kullback-Leibler分散に基づく計算モデル間の損失により、要因説明の違いが罰せられる。
2つのオンラインWebデータセットを用いた実験結果から,安定要因関係のドメイン知識の存在が確認された。
この知識を利用することで、幸福計算の精度が向上するだけでなく、意思決定をうまく支援するための明確な幸福要因も明らかになる。
関連論文リスト
- KAAE: Numerical Reasoning for Knowledge Graphs via Knowledge-aware Attributes Learning [26.605386507466733]
数値推論は自然言語処理やレコメンダシステムなど、さまざまな人工知能応用において重要である。
既存のアプローチは、セマンティックな関連性とセマンティックなあいまいさという、モデリングにおいて2つの重要な課題に直面する。
数値推論における知識グラフ埋め込みのための新しい知識認識属性埋め込みモデル(KAAE)を提案する。
論文 参考訳(メタデータ) (2024-11-20T00:47:03Z) - CausalLP: Learning causal relations with weighted knowledge graph link prediction [5.3454230926797734]
CausalLPは知識グラフ補完問題として不完全因果ネットワークの問題を定式化している。
因果関係を表す知識グラフを使うことで、外部のドメイン知識の統合が可能になる。
CausalLPでは、因果的説明と因果的予測という2つの主要なタスクがサポートされている。
論文 参考訳(メタデータ) (2024-04-23T20:50:06Z) - Application of the representative measure approach to assess the reliability of decision trees in dealing with unseen vehicle collision data [0.6571063542099526]
代表的データセットは、人工知能(AI)開発の軌跡を形成するための基盤となる。
本稿では,決定木の理論的観点からデータセット類似性を評価するために,$varepsilon$-representativeness法の信頼性について検討する。
我々は,XGboostの車両衝突データを用いて,実験結果を拡張した。
論文 参考訳(メタデータ) (2024-04-15T08:06:54Z) - Uplift Modeling based on Graph Neural Network Combined with Causal
Knowledge [9.005051998738134]
本稿では、因果知識と昇降値の見積を組み合わせたグラフニューラルネットワークに基づくフレームワークを提案する。
本手法は, 典型的なシミュレーションデータに小さな誤差を伴って, 昇降値の予測に有効であることを示す。
論文 参考訳(メタデータ) (2023-11-14T07:21:00Z) - Improving the Reliability of Large Language Models by Leveraging
Uncertainty-Aware In-Context Learning [76.98542249776257]
大規模言語モデルはしばしば「ハロシン化」の課題に直面している
本研究では,不確実性に応答してモデルが出力を拡張あるいは拒否することを可能にする,不確実性を考慮したコンテキスト内学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-07T12:06:53Z) - Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - Exploring Bayesian Deep Learning for Urgent Instructor Intervention Need
in MOOC Forums [58.221459787471254]
大規模なオープンオンラインコース(MOOC)は、その柔軟性のおかげで、eラーニングの一般的な選択肢となっている。
多くの学習者とその多様な背景から、リアルタイムサポートの提供は課税されている。
MOOCインストラクターの大量の投稿と高い作業負荷により、インストラクターが介入を必要とするすべての学習者を識別できる可能性は低いです。
本稿では,モンテカルロドロップアウトと変分推論という2つの手法を用いて,学習者によるテキスト投稿のベイジアン深層学習を初めて検討する。
論文 参考訳(メタデータ) (2021-04-26T15:12:13Z) - Information fusion between knowledge and data in Bayesian network
structure learning [5.994412766684843]
本稿では,オープンソースのベイジィス構造学習システムで実装された情報融合手法について述べる。
結果は、限定データとビッグデータの両方で示され、ベイジスで利用可能なBN構造学習アルゴリズムが3つ適用されている。
論文 参考訳(メタデータ) (2021-01-31T15:45:29Z) - Fundamental Limits and Tradeoffs in Invariant Representation Learning [99.2368462915979]
多くの機械学習アプリケーションは、2つの競合する目標を達成する表現を学習する。
ミニマックスゲーム理論の定式化は、精度と不変性の基本的なトレードオフを表す。
分類と回帰の双方において,この一般的かつ重要な問題を情報論的に解析する。
論文 参考訳(メタデータ) (2020-12-19T15:24:04Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。