論文の概要: Navigating information and uncertainty: A fuzzy logic model to approach
transparency, democracy and social wellbeing
- arxiv url: http://arxiv.org/abs/2311.14696v1
- Date: Tue, 7 Nov 2023 23:54:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-03 13:52:52.107012
- Title: Navigating information and uncertainty: A fuzzy logic model to approach
transparency, democracy and social wellbeing
- Title(参考訳): 情報のナビゲーションと不確実性:透明性、民主主義、社会福祉にアプローチするためのファジィ論理モデル
- Authors: Carlos Medel-Ram\'irez, Hilario Medel-L\'opez, Jennifer Lara-M\'erida
- Abstract要約: 著者らは、ガバナンスの複雑さをナビゲートするためにファジィ論理に基づくtDTSWモデルを提案する。
モデルは二進的思考を超越し、民主主義、透明性、社会的幸福を分析する。
資本主義、持続可能性、男女平等、近代民主主義における教育といった課題に対処する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the digital age of information overload and uncertainty, the authors
propose the tDTSW model based on fuzzy logic to navigate governance
complexities. This model transcends binary thinking, analyzes democracy,
transparency, and social well-being, highlighting their roles in just societies
through case studies. It addresses challenges like capitalism, sustainability,
gender equality, and education in modern democracies, emphasizing their
interplay for positive change. "Navigating Information and Uncertainty"
introduces fuzzy logic, offering a structured approach. It calls for collective
efforts to create equitable, sustainable, and just societies, inviting readers
to shape a brighter future.
- Abstract(参考訳): 情報過負荷と不確実性のディジタル時代において,本稿では,ファジィ論理に基づくtDTSWモデルを提案する。
このモデルは二分的思考を超越し、民主主義、透明性、社会的幸福を分析、ケーススタディを通じて社会での役割を強調する。
資本主義、持続可能性、ジェンダー平等、現代の民主主義における教育といった課題に対処し、ポジティブな変化に対する彼らの相互作用を強調している。
「情報と不確実性」はファジィ論理を導入し、構造化されたアプローチを提供する。
公平で持続可能な社会を作り、より明るい未来を形作るよう読者を誘うために、集団的な努力を呼びかけている。
関連論文リスト
- Challenges and Innovations in LLM-Powered Fake News Detection: A Synthesis of Approaches and Future Directions [0.0]
偽ニュースの拡散は ソーシャルメディアのプラットフォームを通じて 一般大衆の信頼に 重大なリスクをもたらします
最近の研究には、マルチモーダルフレームワークにおける大規模言語モデルによる検出の強化が含まれている。
このレビューでは、ダイナミックなソーシャルメディアトレンド、リアルタイム、クロスプラットフォーム検出機能への適応性の重大なギャップがさらに明らかになった。
論文 参考訳(メタデータ) (2025-02-01T06:56:17Z) - The Right to AI [3.2132738637761027]
本稿では、個人やコミュニティが生活を形成するAIシステムの開発とガバナンスに有意義に参画すべきであると主張するAIの権利を提案する。
我々は、生成エージェント、大規模データ抽出、そして多様な文化的価値が、AIの監視に新しい複雑さをもたらすかを批判的に評価する。
論文 参考訳(メタデータ) (2025-01-29T04:32:41Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - TELLER: A Trustworthy Framework for Explainable, Generalizable and Controllable Fake News Detection [37.394874500480206]
本稿では,モデルの説明可能性,一般化性,制御性を重視した,信頼に値する偽ニュース検出のための新しいフレームワークを提案する。
これは認知と意思決定システムを統合するデュアルシステムフレームワークによって実現される。
提案手法の有効性と信頼性を実証し,4つのデータセットに対する総合的な評価結果を示す。
論文 参考訳(メタデータ) (2024-02-12T16:41:54Z) - Recent Advances in Hate Speech Moderation: Multimodality and the Role of Large Models [52.24001776263608]
この包括的調査は、HSモデレーションの最近の歩みを掘り下げている。
大型言語モデル(LLM)と大規模マルチモーダルモデル(LMM)の急成長する役割を強調した。
研究における既存のギャップを、特に表現不足言語や文化の文脈で特定する。
論文 参考訳(メタデータ) (2024-01-30T03:51:44Z) - The Foundation Model Transparency Index [55.862805799199194]
Foundation Model Transparency Indexは、ファンデーションモデルの透明性を規定する100の指標を規定している。
私たちは、彼らの旗艦となる基盤モデルのプラクティスに関連して、開発者をスコア付けします。
全体として、インデックスは、基盤モデルガバナンスの進展を促進するために、今日の透明性のレベルを確立します。
論文 参考訳(メタデータ) (2023-10-19T17:39:02Z) - Accountable and Explainable Methods for Complex Reasoning over Text [5.571369922847262]
機械学習モデルのアカウンタビリティと透明性は、政策、法学、哲学、計算機科学の研究によって決定的なデシダータとして位置づけられている。
この論文は、テキストによる複雑な推論タスクのために開発されたMLモデルの説明責任と透明性に関する知識を拡大する。
論文 参考訳(メタデータ) (2022-11-09T15:14:52Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。