ChatGPT "лъже", когато е форсиран да направи нещо
©
Една инвестиционна компания решава да направи експеримент, използвайки Alpha – чатбот за финансови съвети, подобен на ChatGPT 3. "В заданието и въпросите възложителите на промптове непрекъснато "притискат" изкуствения интелект да даде маркетингови стратегии и финансови прогнози, но тъй като той не е бил захранен с достатъчно данни, а е бил притискан да го прави, се оказва, че под силния "натиск" той е халюцинирал и лъже, просто защото водещо е да удовлетвори потребителя", обясни доц. Тодорова.