論文の概要: Analyzing Domestic Violence through Exploratory Data Analysis and Explainable Ensemble Learning Insights
- arxiv url: http://arxiv.org/abs/2403.15594v2
- Date: Tue, 21 Jan 2025 22:57:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-23 18:44:13.746721
- Title: Analyzing Domestic Violence through Exploratory Data Analysis and Explainable Ensemble Learning Insights
- Title(参考訳): 探索的データ分析と説明可能なアンサンブル学習視点による家庭内暴力の分析
- Authors: Md Abrar Jahin, Saleh Akram Naife, Fatema Tuj Johora Lima, M. F. Mridha, Jungpil Shin,
- Abstract要約: 本研究は、男性家庭内暴力(MDV)を初めて探求し、その影響する要因を明らかにする。
バングラデシュの9大都市から収集したデータを探索データ分析(EDA)を用いて解析した。
EDAは, 言語虐待の頻度, 金銭的依存の影響, MDVにおける家族的・社会経済的要因の役割などのパターンを明らかにした。
- 参考スコア(独自算出の注目度): 0.5825410941577593
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Domestic violence is commonly viewed as a gendered issue that primarily affects women, which tends to leave male victims largely overlooked. This study explores male domestic violence (MDV) for the first time, highlighting the factors that influence it and tackling the challenges posed by a significant categorical imbalance of 5:1 and a lack of data. We collected data from nine major cities in Bangladesh and conducted exploratory data analysis (EDA) to understand the underlying dynamics. EDA revealed patterns such as the high prevalence of verbal abuse, the influence of financial dependency, and the role of familial and socio-economic factors in MDV. To predict and analyze MDV, we implemented 10 traditional machine learning (ML) models, three deep learning models, and two ensemble models, including stacking and hybrid approaches. We propose a stacking ensemble model with ANN and CatBoost as base classifiers and Logistic Regression as the meta-model, which demonstrated the best performance, achieving 95% accuracy, a 99.29% AUC, and balanced metrics across evaluation criteria. Model-specific feature importance analysis of the base classifiers identified key features influencing their individual decision-making. Model-agnostic explainable AI techniques, SHAP and LIME, provided local and global insights into the decision-making processes of the proposed model, enhancing transparency and interpretability. Additionally, statistical validation using paired t-tests with 10-fold cross-validation and Bonferroni correction (alpha = 0.0036) confirmed the superior performance of our proposed model over alternatives.
- Abstract(参考訳): 家庭内暴力は、主に女性に影響を及ぼす性的な問題と見なされ、男性の犠牲者は概して見落とされがちである。
本研究は、男性家庭内暴力(MDV)を初めて調査し、その影響要因と、5:1のカテゴリー的不均衡とデータの欠如によって引き起こされる課題に焦点をあてた。
バングラデシュの9大都市から収集したデータを探索データ分析(EDA)を用いて解析した。
EDAは, 言語虐待の頻度, 金銭的依存の影響, MDVにおける家族的・社会経済的要因の役割などのパターンを明らかにした。
MDVを予測および解析するために、従来の機械学習(ML)モデル10、ディープラーニングモデル3、およびスタックとハイブリッドアプローチを含む2つのアンサンブルモデルを実装した。
本稿では,ANN と CatBoost を基本分類器とし,ロジスティック回帰をメタモデルとし,95% の精度,99.29% の AUC を達成し,評価基準をまたいだバランスの取れた指標を提示する。
基本分類器のモデル固有の特徴重要度分析により,個々の意思決定に影響を及ぼす重要な特徴が同定された。
モデルに依存しない説明可能なAI技術であるSHAPとLIMEは、提案したモデルの意思決定プロセスに関するローカルおよびグローバルな洞察を提供し、透明性と解釈可能性を高める。
さらに,10倍のクロスバリデーションとボンフェロニ補正(アルファ=0.0036)を併用したペアt検定による統計的検証により,提案モデルの代替モデルよりも優れた性能が確認された。
関連論文リスト
- Testing and Improving the Robustness of Amortized Bayesian Inference for Cognitive Models [0.5223954072121659]
汚染物質観測とアウトリーチは、認知モデルのパラメータを推定する際にしばしば問題を引き起こす。
本研究では,アモルタイズされたベイズ推定を用いたパラメータ推定のロバスト性を検証・改善する。
提案手法は実装が簡単で実用的であり,外乱検出や除去が困難な分野に適用可能である。
論文 参考訳(メタデータ) (2024-12-29T21:22:24Z) - Examining Imbalance Effects on Performance and Demographic Fairness of Clinical Language Models [4.390908825243365]
本研究は,ICD符号予測におけるデータ不均衡とモデル性能の関係を統計的に検証する。
我々は、最先端のバイオメディカル言語モデルを用いて、性別、年齢、民族、および健康の社会的決定要因の標準ベンチマークデータにおける不均衡を分析する。
我々の研究は、データの不均衡がモデルの性能と公平性に大きく影響していることを示しているが、多数派と特徴的類似性はより重要な要素であるかもしれない。
論文 参考訳(メタデータ) (2024-12-23T18:58:11Z) - The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [58.130894823145205]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - Revealing and Reducing Gender Biases in Vision and Language Assistants (VLAs) [82.57490175399693]
画像・テキスト・ビジョン言語アシスタント(VLA)22種における性別バイアスの検討
以上の結果から,VLAは実世界の作業不均衡など,データ中の人間のバイアスを再現する可能性が示唆された。
これらのモデルにおける性別バイアスを排除するため、微調整に基づくデバイアス法は、下流タスクにおけるデバイアスとパフォーマンスの最良のトレードオフを実現する。
論文 参考訳(メタデータ) (2024-10-25T05:59:44Z) - Enhancing Training Data Attribution for Large Language Models with Fitting Error Consideration [74.09687562334682]
Debias and Denoise Attribution (DDA) と呼ばれる新しいトレーニングデータ属性法を導入する。
提案手法は既存のアプローチよりも優れており,平均91.64%のAUCを実現している。
DDAは、様々なソースとLLaMA2、QWEN2、Mistralのような異なるスケールのモデルに対して、強力な汎用性とスケーラビリティを示す。
論文 参考訳(メタデータ) (2024-10-02T07:14:26Z) - Evaluating Gender, Racial, and Age Biases in Large Language Models: A Comparative Analysis of Occupational and Crime Scenarios [0.0]
本稿では,Large Language Models(LLMs)におけるバイアスについて検討する。
LLMは、様々な職業において、男性よりも頻繁に女性キャラクターを描いていることが判明した。
性別と人種の偏見を減らそうとする努力は、しばしば1つのサブクラスを超越する結果をもたらす。
論文 参考訳(メタデータ) (2024-09-22T20:21:20Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Identifying Risk Patterns in Brazilian Police Reports Preceding
Femicides: A Long Short Term Memory (LSTM) Based Analysis [0.0]
フェミサイド(Femicide)は、親密なパートナーや家族によってしばしば強姦される女性の犠牲者を殺害することであり、また性による暴力とも関係している。
本研究では,殺人前のブラジル警察報告における行動パターンの同定にLSTM(Long Short Term Memory)を用いた。
最初の目的は、これらの報告の内容を、被害者が殺害されるリスクの低いか高いかを示すものとして分類し、精度を66%にすることであった。
第2のアプローチでは、パターン化されたイベントのシーケンス内で、被害者が次に経験する可能性のあるアクションを予測するモデルを開発した。
論文 参考訳(メタデータ) (2024-01-04T23:05:39Z) - Towards Better Modeling with Missing Data: A Contrastive Learning-based
Visual Analytics Perspective [7.577040836988683]
データ不足は機械学習(ML)モデリングの課題となる可能性がある。
現在のアプローチは、特徴計算とラベル予測に分類される。
本研究は、観測データに欠落した値でモデル化するコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-18T13:16:24Z) - Semantic Image Attack for Visual Model Diagnosis [80.36063332820568]
実際には、特定の列車およびテストデータセットに関する計量分析は、信頼性や公正なMLモデルを保証しない。
本稿では,セマンティック・イメージ・アタック(SIA)を提案する。
論文 参考訳(メタデータ) (2023-03-23T03:13:04Z) - Deep Generative Views to Mitigate Gender Classification Bias Across
Gender-Race Groups [0.8594140167290097]
本稿では,性別・人種グループ間の偏見を低減し,分類精度を向上させるためのバイアス緩和戦略を提案する。
我々は、ジェンダー分類バイアスを軽減するために、生成的視点、構造化学習、そして明らかな学習の力を利用する。
論文 参考訳(メタデータ) (2022-08-17T16:23:35Z) - Measuring Causal Effects of Data Statistics on Language Model's
`Factual' Predictions [59.284907093349425]
大量のトレーニングデータが、最先端のNLPモデルの高性能化の大きな理由の1つである。
トレーニングデータがどのように予測に影響を及ぼすかを記述するための言語を,因果的フレームワークを通じて提供する。
我々のフレームワークは、高価なモデルの再訓練の必要性を回避し、観測データのみに基づいて因果効果を推定することができる。
論文 参考訳(メタデータ) (2022-07-28T17:36:24Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Improving Prediction of Cognitive Performance using Deep Neural Networks
in Sparse Data [2.867517731896504]
MIDUS(Midlife in the United States)の観察・コホート研究から得られたデータを用いて,エグゼクティブ機能とエピソード記憶測定をモデル化した。
ディープニューラルネットワーク(DNN)モデルは、認知パフォーマンス予測タスクの中で一貫して最高である。
論文 参考訳(メタデータ) (2021-12-28T22:23:08Z) - Improving Gender Fairness of Pre-Trained Language Models without
Catastrophic Forgetting [88.83117372793737]
元のトレーニングデータに情報を埋め込むことは、モデルの下流のパフォーマンスを大きなマージンで損なう可能性がある。
本稿では,GEnder Equality Prompt(GEEP)を提案する。
論文 参考訳(メタデータ) (2021-10-11T15:52:16Z) - Auditing Fairness and Imputation Impact in Predictive Analytics for
Higher Education [0.0]
高等教育における予測分析の導入には2つの大きな障壁がある。
デプロイにおける民主化の欠如と、不平等を悪化させる可能性を挙げる。
論文 参考訳(メタデータ) (2021-09-13T05:08:40Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - Questioning causality on sex, gender and COVID-19, and identifying bias
in large-scale data-driven analyses: the Bias Priority Recommendations and
Bias Catalog for Pandemics [0.0]
統計的意義の欠如とバイアスの存在の可能性を考えると、利用可能なデータに基づいて因果的主張を行うという課題を強調します。
我々は、百科事典のような参照ガイドであるBias Catalog for Pandemicsを編纂し、定義を提供し、偏見の現実的な例を強調する。
目的は、因果性、説明可能性、バイアス、テクニックを後者に考慮し、異なる影響と差別を予想し、避けることである。
論文 参考訳(メタデータ) (2021-04-29T17:07:06Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Learning Explainable Interventions to Mitigate HIV Transmission in Sex
Workers Across Five States in India [0.9449650062296824]
この研究は、構造学習、差別的モデリング、および5つの異なるインドの州にまたがる介入を設計する草の根レベルの専門知識を組み合わせたものである。
コンドームの使用を最大化できる要因を定量化するために, ブートストラップ付き, アンサンブル付き平均ベイズネットワーク構造が学習された。
次に,コンドーム利用行動を予測するために,XgBoostとランダム林を用いて識別モデルを構築した。
論文 参考訳(メタデータ) (2020-11-30T08:35:16Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。