論文の概要: Experiments with truth using Machine Learning: Spectral analysis and explainable classification of synthetic, false, and genuine information
- arxiv url: http://arxiv.org/abs/2407.05464v1
- Date: Sun, 7 Jul 2024 18:31:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-09 17:39:22.169006
- Title: Experiments with truth using Machine Learning: Spectral analysis and explainable classification of synthetic, false, and genuine information
- Title(参考訳): 機械学習を用いた真理実験:合成情報、偽情報、真偽情報のスペクトル分析と説明可能な分類
- Authors: Vishnu S. Pendyala, Madhulika Dutta,
- Abstract要約: 本稿では, スペクトル分析, 可視化, 説明可能性の観点から, テキスト形式での合成, 偽, 真の情報を解析する。
情報を表現するために、複数のデータセットに様々な埋め込み技術が使用される。
分類は複数の機械学習アルゴリズムを用いて行われる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Misinformation is still a major societal problem and the arrival of Large Language Models (LLMs) only added to it. This paper analyzes synthetic, false, and genuine information in the form of text from spectral analysis, visualization, and explainability perspectives to find the answer to why the problem is still unsolved despite multiple years of research and a plethora of solutions in the literature. Various embedding techniques on multiple datasets are used to represent information for the purpose. The diverse spectral and non-spectral methods used on these embeddings include t-distributed Stochastic Neighbor Embedding (t-SNE), Principal Component Analysis (PCA), and Variational Autoencoders (VAEs). Classification is done using multiple machine learning algorithms. Local Interpretable Model-Agnostic Explanations (LIME), SHapley Additive exPlanations (SHAP), and Integrated Gradients are used for the explanation of the classification. The analysis and the explanations generated show that misinformation is quite closely intertwined with genuine information and the machine learning algorithms are not as effective in separating the two despite the claims in the literature.
- Abstract(参考訳): 誤情報はまだ社会問題であり、Large Language Models (LLMs) の登場はそれに加えられただけである。
本稿では, 何年にもわたって研究が続けられてきたにもかかわらず, 問題がまだ解決されていない理由を, スペクトル分析, 可視化, 説明可能性の観点から, テキスト形式での合成, 虚偽, 真偽の情報を分析し, 文献における多くの解決法について考察する。
目的のための情報を表現するために、複数のデータセットに様々な埋め込み技術が使用される。
これらの埋め込みに使用されるスペクトルおよび非スペクトルの多彩な手法には、t-distributed Stochastic Neighbor Embedding (t-SNE)、主成分分析(PCA)、変分オートエンコーダ(VAE)がある。
分類は複数の機械学習アルゴリズムを用いて行われる。
局所的解釈可能なモデルに依存しない説明(LIME)、SHAP(SHapley Additive ExPlanations)、統合勾配(Integrated Gradients)が分類の説明に使用される。
分析と説明は、誤報は真の情報と非常に密接に絡み合っており、機械学習アルゴリズムは、文献の主張にもかかわらず、両者を分けるのにあまり効果的ではないことを示している。
関連論文リスト
- DEMAU: Decompose, Explore, Model and Analyse Uncertainties [0.8287206589886881]
DEMAUはオープンソースの教育、探索、分析ツールで、機械学習における分類モデルのいくつかのタイプの不確実性を視覚化し、探索することができる。
論文 参考訳(メタデータ) (2024-09-12T14:57:28Z) - A Critical Assessment of Interpretable and Explainable Machine Learning for Intrusion Detection [0.0]
本稿では,過度に複雑で不透明なMLモデル,不均衡なデータと相関した特徴,異なる説明法における不整合な影響特徴,そして説明の不可能な有用性について検討する。
具体的には、Deep Neural Networksのような複雑な不透明モデルを避け、代わりにDecision Treesのような解釈可能なMLモデルを使用することを推奨する。
機能ベースのモデル説明は、多くの場合、異なる設定で矛盾している。
論文 参考訳(メタデータ) (2024-07-04T15:35:42Z) - Ontology Embedding: A Survey of Methods, Applications and Resources [54.3453925775069]
オントロジはドメイン知識とメタデータを表現するために広く使われている。
1つの簡単な解決策は、統計分析と機械学習を統合することである。
埋め込みに関する多くの論文が出版されているが、体系的なレビューの欠如により、研究者はこの分野の包括的な理解を妨げている。
論文 参考訳(メタデータ) (2024-06-16T14:49:19Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - A Mechanistic Interpretation of Arithmetic Reasoning in Language Models
using Causal Mediation Analysis [128.0532113800092]
算数問題に対するトランスフォーマーに基づくLMの機械的解釈を提案する。
これにより、算術に関連する情報がLMによってどのように処理されるかについての洞察が得られる。
論文 参考訳(メタデータ) (2023-05-24T11:43:47Z) - Azimuth: Systematic Error Analysis for Text Classification [3.1679600401346706]
Azimuthは、テキスト分類のエラー解析を行うオープンソースツールである。
本稿では,データセット分析とモデル品質評価を組み合わせたアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-16T01:10:41Z) - No Pattern, No Recognition: a Survey about Reproducibility and
Distortion Issues of Text Clustering and Topic Modeling [0.0]
機械学習アルゴリズムは、ラベルのないテキストから知識を抽出するために使用することができる。
教師なし学習は、機械学習アルゴリズムによって変動を引き起こす可能性がある。
異常値と異常値の存在が決定要因となる。
論文 参考訳(メタデータ) (2022-08-02T19:51:43Z) - Human-in-the-Loop Disinformation Detection: Stance, Sentiment, or
Something Else? [93.91375268580806]
政治とパンデミックは、機械学習対応の偽ニュース検出アルゴリズムの開発に十分な動機を与えている。
既存の文献は、主に完全自動化されたケースに焦点を当てているが、その結果得られた技術は、軍事応用に必要な様々なトピック、ソース、時間スケールに関する偽情報を確実に検出することはできない。
既に利用可能なアナリストを人間のループとして活用することにより、感情分析、アスペクトベースの感情分析、姿勢検出といった標準的な機械学習技術は、部分的に自動化された偽情報検出システムに使用するためのもっとも有効な方法となる。
論文 参考訳(メタデータ) (2021-11-09T13:30:34Z) - Learning outside the Black-Box: The pursuit of interpretable models [78.32475359554395]
本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
論文 参考訳(メタデータ) (2020-11-17T12:39:44Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Visualisation and knowledge discovery from interpretable models [0.0]
欠落した値も扱える本質的な解釈可能なモデルをいくつか紹介する。
合成データセットと実世界のデータセットでアルゴリズムを実証した。
論文 参考訳(メタデータ) (2020-05-07T17:37:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。