論文の概要: Fluid Transformers and Creative Analogies: Exploring Large Language
Models' Capacity for Augmenting Cross-Domain Analogical Creativity
- arxiv url: http://arxiv.org/abs/2302.12832v1
- Date: Mon, 27 Feb 2023 15:54:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 20:20:39.421561
- Title: Fluid Transformers and Creative Analogies: Exploring Large Language
Models' Capacity for Augmenting Cross-Domain Analogical Creativity
- Title(参考訳): 流体トランスフォーマーと創造的アナロジー--言語モデルによるクロスドメイン類似創造の強化のための能力の検討
- Authors: Zijian Ding, Arvind Srinivasan, Stephen MacNeil, Joel Chan
- Abstract要約: クロスドメインなアナロジー推論は、人間にとって困難な、中核的な創造力である。
最近の研究は、Large Language Modelsのクロスドメインアナログを生成する能力の証明を示している。
- 参考スコア(独自算出の注目度): 7.101885582663675
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cross-domain analogical reasoning is a core creative ability that can be
challenging for humans. Recent work has shown some proofs-of concept of Large
language Models' (LLMs) ability to generate cross-domain analogies. However,
the reliability and potential usefulness of this capacity for augmenting human
creative work has received little systematic exploration. In this paper, we
systematically explore LLMs capacity to augment cross-domain analogical
reasoning. Across three studies, we found: 1) LLM-generated cross-domain
analogies were frequently judged as helpful in the context of a problem
reformulation task (median 4 out of 5 helpfulness rating), and frequently (~80%
of cases) led to observable changes in problem formulations, and 2) there was
an upper bound of 25% of outputs bring rated as potentially harmful, with a
majority due to potentially upsetting content, rather than biased or toxic
content. These results demonstrate the potential utility -- and risks -- of
LLMs for augmenting cross-domain analogical creativity.
- Abstract(参考訳): クロスドメインのアナロジー推論は、人間にとって挑戦的なコアな創造的能力である。
最近の研究は、言語モデル(LLM)がドメイン間の類似を生成できるという概念の証明を示している。
しかし、この能力が人間の創造性を増強する上での信頼性と潜在的有用性は、体系的な調査をほとんど受けていない。
本稿では,LLMのキャパシティを体系的に探求し,ドメイン間類似推論を増強する。
3つの研究で明らかになったのは
1) LLM生成のクロスドメインアナログは, 問題修正作業の文脈で有用であると判断されることが多かった(5つ中4つ中4つ中4つ中4つ中4つ中4つ)。
2) 最大25%のアウトプットが潜在的に有害であると評価され, その大多数は偏りや有害な内容ではなく, 潜在的に動揺するコンテンツによるものであった。
これらの結果は、ドメイン間類似の創造性を高めるためのLLMの有用性とリスクを実証している。
関連論文リスト
- AnaloBench: Benchmarking the Identification of Abstract and Long-context
Analogies [20.35137053775108]
アナロジー思考は、人間が創造的な方法で問題を解決し、難しい概念を把握し、より効果的にアイデアを表現できるようにする。
言語モデル(LM)における類似推論能力を決定するベンチマークAnALOBENCHを提案する。
我々のベンチマーク手法は、人間に共通するこの能力の側面に焦点を当てている: (i) 大量の情報から関連する経験を思い出し、 (ii) 複雑で長いシナリオに類推的推論を適用する。
論文 参考訳(メタデータ) (2024-02-19T18:56:44Z) - A Survey on Transferability of Adversarial Examples across Deep Neural
Networks [54.47263618782188]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性によって"ブラックボックス"攻撃が可能になり、ターゲットモデルの詳細な知識の必要性を回避することができる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - How to Handle Different Types of Out-of-Distribution Scenarios in
Computational Argumentation? A Comprehensive and Fine-Grained Field Study [66.4659448305396]
この研究は、オフ・オブ・ディストリビューション(OOD)シナリオにおけるLMの能力を体系的に評価する。
このような学習パラダイムの有効性は,OODの種類によって異なることがわかった。
具体的には、ICLはドメインシフトに優れているが、プロンプトベースの微調整はトピックシフトに勝っている。
論文 参考訳(メタデータ) (2023-09-15T11:15:47Z) - Causal Intersectionality and Dual Form of Gradient Descent for
Multimodal Analysis: a Case Study on Hateful Memes [1.0774440462574781]
機械学習(ML)の使用が爆発的に増加する中で、その内部作業に根ざした意味的意義を理解することが重要である。
本研究は, ヘイトフルミーム検出問題を平均処理効果(ATE)として定式化できることを示す。
最新のLLM LLaMA2は、コンテキスト内学習環境において、ミーム検出の交わる性質を解き放つことができることを示す。
論文 参考訳(メタデータ) (2023-08-19T13:14:15Z) - Endogenous Macrodynamics in Algorithmic Recourse [52.87956177581998]
対実説明(CE)とアルゴリズム・リコース(AR)に関する既存の研究は、静的環境における個人に主に焦点を当ててきた。
既存の方法論の多くは、一般化されたフレームワークによってまとめて記述できることを示す。
次に、既存のフレームワークは、グループレベルでの言論の内在的ダイナミクスを研究する際にのみ明らかとなるような、隠された対外的関係のコストを考慮に入れていないと論じる。
論文 参考訳(メタデータ) (2023-08-16T07:36:58Z) - Multi-view Adversarial Discriminator: Mine the Non-causal Factors for
Object Detection in Unseen Domains [36.4342793435982]
本稿では、ソースドメイン上での多視点対角訓練により、共通特徴から非因果因子を除去するアイデアを提案する。
マルチビュー逆微分器(MAD)に基づく領域一般化モデルを提案する。
我々のMADは6つのベンチマークで最先端のパフォーマンスを得る。
論文 参考訳(メタデータ) (2023-04-06T09:20:28Z) - Source-free Domain Adaptation Requires Penalized Diversity [60.04618512479438]
ソースデータがない場合、異なるドメイン間の知識伝達に対処するために、ソースフリードメイン適応(SFDA)が導入された。
教師なしのFDAでは、多様性はソース上の1つの仮説を学習するか、共有された特徴抽出器で複数の仮説を学習することに限定される。
本稿では,異なる特徴抽出器を用いて表現多様性を促進する新しい無教師付きSFDAアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-06T00:20:19Z) - Robustness of Fusion-based Multimodal Classifiers to Cross-Modal Content
Dilutions [27.983902791798965]
画像と既存のテキストとの関連性やトピックのコヒーレンスを維持する希釈テキストを生成するモデルを開発する。
その結果,タスク固有の融合型マルチモーダル分類器の性能はそれぞれ23.3%,22.5%低下することがわかった。
我々の研究は、深いマルチモーダルモデルの現実的な変動に対する堅牢性について、さらなる研究をハイライトし、奨励することを目的としている。
論文 参考訳(メタデータ) (2022-11-04T17:58:02Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Coarse to Fine: Domain Adaptive Crowd Counting via Adversarial Scoring
Network [58.05473757538834]
本稿では,ドメイン間のギャップを粗い粒度から細かな粒度に埋める新しい逆スコアリングネットワーク (ASNet) を提案する。
3組のマイグレーション実験により,提案手法が最先端のカウント性能を実現することを示す。
論文 参考訳(メタデータ) (2021-07-27T14:47:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。