論文の概要: What Emotions Make One or Five Stars? Understanding Ratings of Online
Product Reviews by Sentiment Analysis and XAI
- arxiv url: http://arxiv.org/abs/2003.00201v1
- Date: Sat, 29 Feb 2020 07:39:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 20:08:44.770883
- Title: What Emotions Make One or Five Stars? Understanding Ratings of Online
Product Reviews by Sentiment Analysis and XAI
- Title(参考訳): 1つや5つ星を作る感情って何?
感性分析とXAIによるオンライン製品レビューのレーティング理解
- Authors: Chaehan So
- Abstract要約: この研究はオンラインレビューを感情分析によって分析し、抽出した感情を製品評価を予測する機能として利用した。
予測は、予測中にモデルにバイアスが現れるかどうかを理解するために、説明可能なAI(XAI)の様々なメソドによって歪められた。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When people buy products online, they primarily base their decisions on the
recommendations of others given in online reviews. The current work analyzed
these online reviews by sentiment analysis and used the extracted sentiments as
features to predict the product ratings by several machine learning algorithms.
These predictions were disentangled by various meth-ods of explainable AI (XAI)
to understand whether the model showed any bias during prediction. Study 1
benchmarked these algorithms (knn, support vector machines, random forests,
gradient boosting machines, XGBoost) and identified random forests and XGBoost
as best algorithms for predicting the product ratings. In Study 2, the analysis
of global feature importance identified the sentiment joy and the emotional
valence negative as most predictive features. Two XAI visualization methods,
local feature attributions and partial dependency plots, revealed several
incorrect prediction mechanisms on the instance-level. Performing the
benchmarking as classification, Study 3 identified a high no-information rate
of 64.4% that indicated high class imbalance as underlying reason for the
identified problems. In conclusion, good performance by machine learning
algorithms must be taken with caution because the dataset, as encountered in
this work, could be biased towards certain predictions. This work demonstrates
how XAI methods reveal such prediction bias.
- Abstract(参考訳): オンラインで商品を購入するとき、主にオンラインレビューで提示された他人の推薦に基づいて決定する。
現在の研究は、これらのオンラインレビューを感情分析によって分析し、抽出された感情をいくつかの機械学習アルゴリズムによって製品評価を予測する機能として用いた。
これらの予測は、予測中にモデルにバイアスが現れるかどうかを理解するために、説明可能なAI(XAI)の様々なメソドによって歪められた。
研究1では、これらのアルゴリズム(knn、サポートベクターマシン、ランダムフォレスト、勾配向上マシン、XGBoost)をベンチマークし、製品評価を予測するための最良のアルゴリズムとしてランダムフォレストとXGBoostを特定した。
研究2では、世界的特徴重要度の分析により、感情的喜びと感情的原子価が最も予測的特徴であることがわかった。
局所特徴帰属と部分依存プロットという2つのxai可視化手法が,インスタンスレベルで不正確な予測機構を明らかにした。
調査3は、ベンチマークを分類として実行し、64.4%という高い非情報率を特定し、高いクラス不均衡が問題の根本原因であることを示した。
結論として、機械学習アルゴリズムによる優れたパフォーマンスは、この研究で遭遇したデータセットが、特定の予測に偏っている可能性があるため、注意を払う必要がある。
本稿では,xai手法が予測バイアスを明らかにする方法を示す。
関連論文リスト
- Introducing δ-XAI: a novel sensitivity-based method for local AI explanations [42.06878765569675]
ハイパフォーマンスなAI/MLモデルは、しばしば解釈可能性に欠け、臨床医の予測に対する信頼を妨げている。
これを解決するために、AI/ML予測を人間の理解可能な言葉で記述するXAI技術が開発されている。
本稿では、デルタ指数を拡張してMLモデル予測の局所的な説明を提供する新しいデルタXAI法を提案する。
論文 参考訳(メタデータ) (2024-07-25T19:07:49Z) - Ecosystem-level Analysis of Deployed Machine Learning Reveals Homogeneous Outcomes [72.13373216644021]
本研究では,機械学習の社会的影響を,特定の文脈に展開されるモデルの集合を考慮し検討する。
デプロイされた機械学習はシステム障害を起こしやすいため、利用可能なすべてのモデルに排他的に誤分類されているユーザもいます。
これらの例は、エコシステムレベルの分析が、機械学習の社会的影響を特徴づける独自の強みを持っていることを示している。
論文 参考訳(メタデータ) (2023-07-12T01:11:52Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Explaining Hate Speech Classification with Model Agnostic Methods [0.9990687944474738]
本研究の目的は、ヘイトスピーチ予測と、その決定を支援するためにシステムによって生成された説明とのギャップを埋めることである。
これは、まずテキストの分類を予測し、その後、ポストホック、モデル非依存、代理的解釈可能性アプローチを提供することによって達成されている。
論文 参考訳(メタデータ) (2023-05-30T19:52:56Z) - Rationalizing Predictions by Adversarial Information Calibration [65.19407304154177]
我々は2つのモデルを共同で訓練する: 1つは、正確だがブラックボックスな方法でタスクを解く典型的なニューラルモデルであり、もう1つは、予測の理論的根拠を付加するセレクタ・予測モデルである。
我々は,2つのモデルから抽出した情報を,それらの違いが欠落した特徴や過度に選択された特徴の指標であるように校正するために,敵対的手法を用いる。
論文 参考訳(メタデータ) (2023-01-15T03:13:09Z) - Generalizability Analysis of Graph-based Trajectory Predictor with
Vectorized Representation [29.623692599892365]
軌道予測は自動運転車にとって不可欠な課題の1つである。
機械学習の最近の進歩は、一連の高度な軌道予測アルゴリズムを生み出した。
論文 参考訳(メタデータ) (2022-08-06T20:19:52Z) - PhilaeX: Explaining the Failure and Success of AI Models in Malware
Detection [6.264663726458324]
サイバーセキュリティにおける意思決定を支援するために使用されるAIモデルの予測に対する説明は、非常に重要である。
既存のAIモデルには、ほとんどのシナリオでパフォーマンスが強いにもかかわらず、予測結果に関する説明を提供する能力がない。
我々は、AIモデルの予測の完全な説明を形成するために、最適化された機能のサブセットを識別する手段を提供する、PhillaeXと呼ばれる新しい説明可能なAI手法を提案する。
論文 参考訳(メタデータ) (2022-07-02T05:06:24Z) - What Should I Know? Using Meta-gradient Descent for Predictive Feature
Discovery in a Single Stream of Experience [63.75363908696257]
計算強化学習は、未来の感覚の予測を通じて、エージェントの世界の知覚を構築しようとする。
この一連の作業において、オープンな課題は、エージェントがどの予測が意思決定を最も支援できるかを、無限に多くの予測から決定することである。
本稿では,エージェントが何を予測するかを学習するメタ段階的な降下過程,(2)選択した予測の見積もり,3)将来の報酬を最大化するポリシーを生成する方法を紹介する。
論文 参考訳(メタデータ) (2022-06-13T21:31:06Z) - Learning Predictions for Algorithms with Predictions [49.341241064279714]
予測器を学習するアルゴリズムに対して,一般的な設計手法を導入する。
オンライン学習の手法を応用して、敵のインスタンスに対して学習し、堅牢性と一貫性のあるトレードオフを調整し、新しい統計的保証を得る。
両部マッチング,ページマイグレーション,スキーレンタル,ジョブスケジューリングの手法を解析することにより,学習アルゴリズムの導出におけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-02-18T17:25:43Z) - Robustification of Online Graph Exploration Methods [59.50307752165016]
我々は、古典的で有名なオンライングラフ探索問題の学習強化版について研究する。
本稿では,予測をよく知られたNearest Neighbor(NN)アルゴリズムに自然に統合するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-10T10:02:31Z) - Understanding the Prediction Mechanism of Sentiments by XAI
Visualization [1.52292571922932]
説明可能なAI(XAI)手法を用いて、オンラインホテルレビューから抽出された感情の効果を可視化すること。
研究1では、抽出した感情を特徴として、5つの機械学習アルゴリズムによるレビュー評価を予測した。
調査2では,無作為林モデルを特徴的重要度で分析し,最も予測的な特徴として,喜び,嫌悪,肯定的,否定的な感情を明らかにした。
論文 参考訳(メタデータ) (2020-03-03T10:25:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。