論文の概要: Generative AI trial for nonviolent communication mediation
- arxiv url: http://arxiv.org/abs/2308.03326v1
- Date: Mon, 7 Aug 2023 06:19:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 15:03:00.762640
- Title: Generative AI trial for nonviolent communication mediation
- Title(参考訳): 非暴力的コミュニケーション仲介のためのジェネレーティブAIトライアル
- Authors: Takeshi Kato
- Abstract要約: ChatGPTは、従来の認定トレーナーの代わりに、入力文を仲介する可能性をテストするために使用された。
結果は、まだ実用レベルには達していないが、生成AIの応用には可能性があることを示唆している。
生成型AIを用いたNVCメディエーションの普及が、ミックスバイオティクス社会の早期実現につながることが期待されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Aiming for a mixbiotic society that combines freedom and solidarity among
people with diverse values, I focused on nonviolent communication (NVC) that
enables compassionate giving in various situations of social division and
conflict, and tried a generative AI for it. Specifically, ChatGPT was used in
place of the traditional certified trainer to test the possibility of mediating
(modifying) input sentences in four processes: observation, feelings, needs,
and requests. The results indicate that there is potential for the application
of generative AI, although not yet at a practical level. Suggested improvement
guidelines included adding model responses, relearning revised responses,
specifying appropriate terminology for each process, and re-asking for required
information. The use of generative AI will be useful initially to assist
certified trainers, to prepare for and review events and workshops, and in the
future to support consensus building and cooperative behavior in digital
democracy, platform cooperatives, and cyber-human social co-operating systems.
It is hoped that the widespread use of NVC mediation using generative AI will
lead to the early realization of a mixbiotic society.
- Abstract(参考訳): 多様な価値観を持つ人々の自由と連帯性を組み合わせた混合生物社会を目指して,私は,社会分裂と紛争のさまざまな状況における思いやりの付与を可能にする非暴力的コミュニケーション(NVC)に注目し,そのために生成的AIを試した。
特にChatGPTは、従来の認定トレーナーの代わりに、4つのプロセス(観察、感情、ニーズ、要求)で入力文を仲介(修正)する可能性をテストするために使用された。
この結果から,まだ実用レベルには達していないが,生成AIの適用の可能性が示唆された。
推奨される改善ガイドラインには、モデル応答の追加、修正された応答の再学習、各プロセスに適した用語の指定、必要な情報の再入力が含まれる。
生成AIの使用は、最初は認定トレーナーを支援し、イベントやワークショップの準備とレビューを行い、将来はデジタル民主主義、プラットフォーム協力、サイバー人間による社会協力システムにおける合意形成と協調行動を支援するのに役立ちます。
生成型AIを用いたNVCメディエーションの普及が、ミックスバイオティクス社会の早期実現につながることが期待されている。
関連論文リスト
- An AI System Evaluation Framework for Advancing AI Safety: Terminology, Taxonomy, Lifecycle Mapping [23.92695048003188]
本稿では,3つのコンポーネントからなるAIシステム評価フレームワークを提案する。
このフレームワークは、モデル中心のアプローチを越えて、AIシステム評価に関するより深い議論を触媒する。
論文 参考訳(メタデータ) (2024-04-08T10:49:59Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Human-AI collaboration is not very collaborative yet: A taxonomy of interaction patterns in AI-assisted decision making from a systematic review [6.013543974938446]
意思決定支援システムにおける人工知能の活用は、技術的進歩に不相応に焦点を合わせてきた。
人間中心の視点は、既存のプロセスとのシームレスな統合のためにAIソリューションを設計することで、この懸念を緩和しようとする。
論文 参考訳(メタデータ) (2023-10-30T17:46:38Z) - Training Socially Aligned Language Models on Simulated Social
Interactions [99.39979111807388]
AIシステムにおける社会的アライメントは、確立された社会的価値に応じてこれらのモデルが振舞うことを保証することを目的としている。
現在の言語モデル(LM)は、トレーニングコーパスを独立して厳格に複製するように訓練されている。
本研究は,シミュレートされた社会的相互作用からLMを学習することのできる,新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:17:36Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Adversarial Attacks in Cooperative AI [0.0]
多エージェント環境における単エージェント強化学習アルゴリズムは協調の育成には不十分である。
敵機械学習における最近の研究は、モデルは容易に誤った決定を下すことができることを示している。
協調AIは、以前の機械学習研究では研究されなかった新たな弱点を導入する可能性がある。
論文 参考訳(メタデータ) (2021-11-29T07:34:12Z) - Envisioning Communities: A Participatory Approach Towards AI for Social
Good [10.504838259488844]
社会的善のためのAIは、AIシステムが影響するコミュニティによって評価されるべきである、と我々は主張する。
社会的良き研究のためのAIの設計と実装のための参加型アプローチと、その能力のアプローチがどのように一致するかを示す。
論文 参考訳(メタデータ) (2021-05-04T21:40:04Z) - Descriptive AI Ethics: Collecting and Understanding the Public Opinion [10.26464021472619]
本研究では、規範的および記述的研究が相互補完できる混合AI倫理モデルを提案する。
我々は、AIシステムの展開に対する楽観的見解と悲観的見解のギャップを埋めることにその影響について論じる。
論文 参考訳(メタデータ) (2021-01-15T03:46:27Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。