論文の概要: Measuring Happiness Around the World Through Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2011.12548v1
- Date: Wed, 25 Nov 2020 07:12:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 02:47:54.429172
- Title: Measuring Happiness Around the World Through Artificial Intelligence
- Title(参考訳): 人工知能による世界中の幸福度の測定
- Authors: Rustem Ozakar, Rafet Efe Gazanfer and Y. Sinan Hanay
- Abstract要約: 我々は、偏見のない感情検知器、人工知能(AI)を用いて、国の幸福度を分析する。
AIを使用することで、何が人を幸せにするかを前提にせず、公開のストリートビデオから収集された人々の顔から感情を検出するためにAIに決定を委ねる。
世界中の8つの都市における幸福度をインターネット上の映像から分析した結果,幸福度に関して統計的に有意な差はないことがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we analyze the happiness levels of countries using an unbiased
emotion detector, artificial intelligence (AI). To date, researchers proposed
many factors that may affect happiness such as wealth, health and safety. Even
though these factors all seem relevant, there is no clear consensus between
sociologists on how to interpret these, and the models to estimate the cost of
these utilities include some assumptions. Researchers in social sciences have
been working on determination of the happiness levels in society and
exploration of the factors correlated with it through polls and different
statistical methods. In our work, by using artificial intelligence, we
introduce a different and relatively unbiased approach to this problem. By
using AI, we make no assumption about what makes a person happy, and leave the
decision to AI to detect the emotions from the faces of people collected from
publicly available street footages. We analyzed the happiness levels in eight
different cities around the world through available footage on the Internet and
found out that there is no statistically significant difference between
countries in terms of happiness.
- Abstract(参考訳): 本研究では、偏見のない感情検知器、人工知能(AI)を用いて、各国の幸福度を分析する。
これまで研究者は、富、健康、安全など、幸福に影響する多くの要因を提案してきた。
これらの要因はすべて関連しているように思われるが、これらの解釈の方法に関する社会学者間の明確なコンセンサスはなく、これらのユーティリティのコストを見積もるモデルにはいくつかの仮定が含まれている。
社会科学の研究者たちは、世論調査と異なる統計手法を通じて、社会における幸福度の決定とそれに関連する要因の探索に取り組んでいる。
私たちの研究では、人工知能を用いて、この問題に対して異なる比較的偏見のないアプローチを導入しています。
AIを使用することで、何が人を幸せにするかを前提にせず、公開のストリートビデオから収集された人々の顔から感情を検出するためにAIに任せます。
世界中の8つの都市における幸福度をインターネット上の映像から分析した結果,幸福度に関して統計的に有意な差はないことがわかった。
関連論文リスト
- Measuring Human Contribution in AI-Assisted Content Generation [68.03658922067487]
本研究は,AIによるコンテンツ生成における人間の貢献度を測定する研究課題を提起する。
人間の入力とAI支援出力の自己情報に対する相互情報を計算することにより、コンテンツ生成における人間の比例情報貢献を定量化する。
論文 参考訳(メタデータ) (2024-08-27T05:56:04Z) - The Pursuit of Fairness in Artificial Intelligence Models: A Survey [2.124791625488617]
この調査は、研究者がAIシステムの公正性を促進する方法の相乗効果を提供する。
AIモデルのバイアスを軽減するために研究者が採用したアプローチとテクニックについて、徹底的な研究がなされている。
また、偏見付きモデルがユーザエクスペリエンスに与える影響や、そのようなモデルの開発とデプロイにおいて考慮すべき倫理的考慮についても調べます。
論文 参考訳(メタデータ) (2024-03-26T02:33:36Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z) - Measure of Uncertainty in Human Emotions [0.0]
本研究では,異なる不確実性情報表示が人的意思決定プロセスに与える影響について検討した。
その結果、不確実性のある情報を表示することで、決定を下す際により自信を持てることが示される。
論文 参考訳(メタデータ) (2023-08-08T04:17:25Z) - Artificial intelligence adoption in the physical sciences, natural
sciences, life sciences, social sciences and the arts and humanities: A
bibliometric analysis of research publications from 1960-2021 [73.06361680847708]
1960年には333の研究分野の14%がAIに関連していたが、1972年には全研究分野の半分以上、1986年には80%以上、現在では98%以上まで増加した。
1960年には、333の研究分野の14%がAI(コンピュータ科学の多くの分野)に関連していたが、1972年までに全研究分野の半分以上、1986年には80%以上、現在では98%以上まで増加した。
我々は、現在の急上昇の状況が異なっており、学際的AI応用が持続する可能性が高いと結論付けている。
論文 参考訳(メタデータ) (2023-06-15T14:08:07Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Taking the Intentional Stance Seriously: A Guide to Progress in
Artificial Intelligence [0.0]
それぞれのユニークなツールの仕組みに関するメンタルモデルを構築しているのです。
本稿では,この主張を明確にする意図の命題的態度を精査する。
論文 参考訳(メタデータ) (2022-09-21T13:38:23Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - The human-AI relationship in decision-making: AI explanation to support
people on justifying their decisions [4.169915659794568]
人々は、AIがどのように機能するか、そしてそのシステムとの関係を構築するために、その成果をもっと意識する必要があります。
意思決定のシナリオでは、人々はAIがどのように機能するか、そしてそのシステムとの関係を構築する結果についてもっと意識する必要があります。
論文 参考訳(メタデータ) (2021-02-10T14:28:34Z) - The Threats of Artificial Intelligence Scale (TAI). Development,
Measurement and Test Over Three Application Domains [0.0]
いくつかの世論調査は、自律ロボットと人工知能(FARAI)の公衆の恐怖を頻繁に問う
我々は、AIシステムの4つの機能クラスを考慮し、AIアプリケーションの様々な領域に適用可能な、AIの脅威知覚を測定するためのきめ細かいスケールを提案する。
データは提案されたAIのThreats of AI(TAI)スケールの次元構造と、インジケータの内部一貫性と因子的妥当性をサポートする。
論文 参考訳(メタデータ) (2020-06-12T14:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。