論文の概要: Ethic-BERT: An Enhanced Deep Learning Model for Ethical and Non-Ethical Content Classification
- arxiv url: http://arxiv.org/abs/2510.12850v1
- Date: Tue, 14 Oct 2025 08:42:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.360776
- Title: Ethic-BERT: An Enhanced Deep Learning Model for Ethical and Non-Ethical Content Classification
- Title(参考訳): Ethic-BERT: 倫理的・非倫理的コンテンツ分類のための強化されたディープラーニングモデル
- Authors: Mahamodul Hasan Mahadi, Md. Nasif Safwan, Souhardo Rahman, Shahnaj Parvin, Aminun Nahar, Kamruddin Nur,
- Abstract要約: 本稿では,4つの領域(Commonsense, Justice, Virtue, Deontology)にまたがる倫理コンテンツ分類モデルであるEthic-BERTを紹介する。
提案手法では,厳密な事前処理によって語彙空間と文脈のあいまいさに対処し,フルモデル凍結,勾配蓄積,適応学習率スケジューリングといった高度な微調整戦略を取り入れている。
実験結果は、Ethic-BERTがベースラインモデルよりも優れていることを示し、標準テストで平均82.32%の精度を達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Developing AI systems capable of nuanced ethical reasoning is critical as they increasingly influence human decisions, yet existing models often rely on superficial correlations rather than principled moral understanding. This paper introduces Ethic-BERT, a BERT-based model for ethical content classification across four domains: Commonsense, Justice, Virtue, and Deontology. Leveraging the ETHICS dataset, our approach integrates robust preprocessing to address vocabulary sparsity and contextual ambiguities, alongside advanced fine-tuning strategies like full model unfreezing, gradient accumulation, and adaptive learning rate scheduling. To evaluate robustness, we employ an adversarially filtered "Hard Test" split, isolating complex ethical dilemmas. Experimental results demonstrate Ethic-BERT's superiority over baseline models, achieving 82.32% average accuracy on the standard test, with notable improvements in Justice and Virtue. In addition, the proposed Ethic-BERT attains 15.28% average accuracy improvement in the HardTest. These findings contribute to performance improvement and reliable decision-making using bias-aware preprocessing and proposed enhanced AI model.
- Abstract(参考訳): 倫理的推論のニュアンスを持つAIシステムの開発は、人間の決定に影響を及ぼす傾向にあるため、重要であるが、既存のモデルは、道徳的理解の原則よりも表面的相関に頼っていることが多い。
本稿では,4つの領域(Commonsense, Justice, Virtue, Deontology)にまたがる倫理コンテンツ分類モデルであるEthic-BERTを紹介する。
ETHICSデータセットを活用することで、当社のアプローチは堅牢な前処理を統合し、語彙空間と文脈のあいまいさに対処し、フルモデル凍結、勾配蓄積、適応学習率スケジューリングといった高度な微調整戦略を併用する。
頑健性を評価するために,複雑な倫理的ジレンマを分離する「ハードテスト」分割法を用いる。
実験結果は、Ethic-BERTがベースラインモデルよりも優れていることを示し、標準テストで平均82.32%の精度を達成した。
さらに提案されたEthic-BERTでは,HardTestの平均精度が15.28%向上している。
これらの知見は、バイアス認識前処理を用いた性能改善と信頼性の高い意思決定に寄与し、AIモデルの拡張を提案する。
関連論文リスト
- ARISE: An Adaptive Resolution-Aware Metric for Test-Time Scaling Evaluation in Large Reasoning Models [102.4511331368587]
ARISE(Adaptive Resolution-Aware Scaling Evaluation)は、大規模推論モデルの試験時間スケーリングの有効性を評価するために設計された新しい尺度である。
我々は、様々な領域にわたる最先端の推論モデルを評価する包括的な実験を行う。
論文 参考訳(メタデータ) (2025-10-07T15:10:51Z) - Advancing Automated Ethical Profiling in SE: a Zero-Shot Evaluation of LLM Reasoning [1.389448546196977]
大規模言語モデル(LLM)は、コード合成を超えて拡張されたタスクのためのソフトウェア工学(SE)ツールにますます統合されています。
ゼロショット設定で16LLMの倫理的推論能力を評価するための完全に自動化されたフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-01T13:28:26Z) - Auditing the Ethical Logic of Generative AI Models [6.0972634521845475]
本稿では,主要な大規模言語モデル(LLM)の倫理的論理を評価するための5次元監査モデルを提案する。
モデルが一般に倫理的決定に収束する一方で、説明的厳密性や道徳的優先順位付けの点で異なることを発見した7つの主要なLCMをベンチマークする。
チェーン・オブ・ソート(Chain-of-Thought)のプロンプトと推論最適化モデルにより,監査指標のパフォーマンスが大幅に向上した。
論文 参考訳(メタデータ) (2025-04-24T13:32:30Z) - Addressing Moral Uncertainty using Large Language Models for Ethical Decision-Making [0.42481744176244507]
本稿では,タスクに依存しない倫理的レイヤを用いて,事前学習された強化学習(RL)モデルを洗練する倫理的意思決定フレームワークを提案する。
倫理的階層は、Jensen-Shannon Divergence と Dempster-Shafer Theory を用いて複数の道徳的観点から信念のスコアを集約する。
この統合学習フレームワークは、複雑な環境においてRLエージェントが道徳的不確実性をナビゲートし、様々なタスクにおいて道徳的に健全な決定を可能にする。
論文 参考訳(メタデータ) (2025-02-17T19:05:55Z) - From Efficiency to Equity: Measuring Fairness in Preference Learning [3.2132738637761027]
不平等とロウルシアン正義の経済理論に触発された嗜好学習モデルの公平性を評価する。
Gini Coefficient, Atkinson Index, Kuznets Ratio を用いて,これらのモデルの公平性を定量化するための指標を提案する。
論文 参考訳(メタデータ) (2024-10-24T15:25:56Z) - QualEval: Qualitative Evaluation for Model Improvement [82.73561470966658]
モデル改善のための手段として,自動定性評価による定量的スカラー指標を付加するQualEvalを提案する。
QualEvalは強力なLCM推論器と新しいフレキシブルリニアプログラミングソルバを使用して、人間の読みやすい洞察を生成する。
例えば、その洞察を活用することで、Llama 2モデルの絶対性能が最大15%向上することを示す。
論文 参考訳(メタデータ) (2023-11-06T00:21:44Z) - Position: AI Evaluation Should Learn from How We Test Humans [65.36614996495983]
人間の評価のための20世紀起源の理論である心理測定は、今日のAI評価における課題に対する強力な解決策になり得る、と我々は主張する。
論文 参考訳(メタデータ) (2023-06-18T09:54:33Z) - On the Robustness of Aspect-based Sentiment Analysis: Rethinking Model,
Data, and Training [109.9218185711916]
アスペクトベースの感情分析(ABSA)は、ソーシャルメディアのテキストやレビューの背後にある製品やサービスの特定の側面に対して、特定の感情の極性を自動的に推測することを目的としている。
我々は、モデル、データ、トレーニングを含むあらゆる可能な角度からボトルネックを体系的に再考することで、ABSAの堅牢性を高めることを提案する。
論文 参考訳(メタデータ) (2023-04-19T11:07:43Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。