論文の概要: Finding archetypal patterns for binary questionnaires
- arxiv url: http://arxiv.org/abs/2003.00043v1
- Date: Fri, 28 Feb 2020 20:01:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 02:50:30.698341
- Title: Finding archetypal patterns for binary questionnaires
- Title(参考訳): 二元質問票における根尖パターンの探索
- Authors: Ismael Cabero, Irene Epifanio
- Abstract要約: Archetypal分析は、純粋な(極端)パターンの混合として観測の集合を説明する探索的なツールである。
本稿では,2次観測にアルテチポイド分析を用いることを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Archetypal analysis is an exploratory tool that explains a set of
observations as mixtures of pure (extreme) patterns. If the patterns are actual
observations of the sample, we refer to them as archetypoids. For the first
time, we propose to use archetypoid analysis for binary observations. This tool
can contribute to the understanding of a binary data set, as in the
multivariate case. We illustrate the advantages of the proposed methodology in
a simulation study and two applications, one exploring objects (rows) and the
other exploring items (columns). One is related to determining student skill
set profiles and the other to describing item response functions.
- Abstract(参考訳): Archetypal分析は、純粋な(極端)パターンの混合として観測の集合を説明する探索的なツールである。
パターンが実際のサンプルの観察である場合は、これをarchetypoidsと呼ぶ。
今回我々は,2次観測にarchetypoid analysisを使うことを初めて提案する。
このツールは、多変数の場合のようにバイナリデータセットの理解に寄与することができる。
本研究では,提案手法の利点をシミュレーション研究と,探索対象(rows)と探索対象(columns)の2つの応用で示す。
1つは、学生スキルセットプロファイルの決定と、もう1つは項目応答関数を記述することである。
関連論文リスト
- Deciphering the Interplay of Parametric and Non-parametric Memory in Retrieval-augmented Language Models [5.274653527674298]
Retrieval-Augmented Generation (RAG)モデルは、応答を生成する前に情報を取得するように振舞う。
我々は、因果媒介分析と制御実験を用いて、内部表現が情報処理にどのように影響するかを調べる。
論文 参考訳(メタデータ) (2024-10-07T16:14:47Z) - Biarchetype analysis: simultaneous learning of observations and features based on extremes [0.0]
そこで本研究では,古型解析を拡張し,観察と特徴の両アーキタイプを同時に識別する新しい手法であるバイアルキタイプ解析を提案する。
この革新的な教師なし機械学習ツールは、純粋な型、またはバイアーキタイプのインスタンスを通して、観察と特徴を表現することを目的としている。
さまざまな機械学習課題に対するバイアルキタイプ分析の適用は、その価値を浮き彫りにする。
論文 参考訳(メタデータ) (2023-11-18T19:44:54Z) - Sample based Explanations via Generalized Representers [42.53488505266559]
一般表現器は, 自然集合の公理的性質を満たすサンプルベース説明の唯一のクラスであることを示す。
我々は、カーネルに与えられたグローバルな重要性を抽出するためのアプローチと、現代の非線形モデルに与えられたカーネルの自然な選択について議論する。
論文 参考訳(メタデータ) (2023-10-27T22:54:47Z) - Rationalizing Predictions by Adversarial Information Calibration [65.19407304154177]
我々は2つのモデルを共同で訓練する: 1つは、正確だがブラックボックスな方法でタスクを解く典型的なニューラルモデルであり、もう1つは、予測の理論的根拠を付加するセレクタ・予測モデルである。
我々は,2つのモデルから抽出した情報を,それらの違いが欠落した特徴や過度に選択された特徴の指標であるように校正するために,敵対的手法を用いる。
論文 参考訳(メタデータ) (2023-01-15T03:13:09Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Self-Attention Neural Bag-of-Features [103.70855797025689]
我々は最近導入された2D-Attentionの上に構築し、注意学習方法論を再構築する。
本稿では,関連情報を強調した2次元目視マスクを学習する機能・時間的アテンション機構を提案する。
論文 参考訳(メタデータ) (2022-01-26T17:54:14Z) - Intersection Regularization for Extracting Semantic Attributes [72.53481390411173]
本稿では,ネットワーク抽出した特徴が意味属性のセットと一致するように,教師付き分類の問題を考える。
例えば、鳥類のイメージを種に分類することを学ぶとき、動物学者が鳥類を分類するために使用する特徴の出現を観察したい。
本稿では,複数層パーセプトロン(MLP)と並列決定木を併用した,離散的なトップレベルアクティベーションを持つニューラルネットワークのトレーニングを提案する。
論文 参考訳(メタデータ) (2021-03-22T14:32:44Z) - Latent Feature Representation via Unsupervised Learning for Pattern
Discovery in Massive Electron Microscopy Image Volumes [4.278591555984395]
特に,データセットにおける意味的類似性を捉える潜在表現を学ぶための教師なしのディープラーニングアプローチを提案する。
動物脳の比較的小さな部分でもテラバイトの画像を要求できるナノスケールの電子顕微鏡データに適用する手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-12-22T17:14:19Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z) - Evaluating Explainable AI: Which Algorithmic Explanations Help Users
Predict Model Behavior? [97.77183117452235]
我々は、モデル解釈性に対するアルゴリズム的説明の影響を分離するために、人体テストを実施している。
方法の有効性の明確な証拠はごく少数にみえる。
以上の結果から,説明がシミュラビリティにどのように影響するかの信頼性と包括的評価が得られた。
論文 参考訳(メタデータ) (2020-05-04T20:35:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。