ChatGPT "лъже", когато е форсиран да направи нещо
©
Една инвестиционна компания решава да направи експеримент, използвайки Alpha – чатбот за финансови съвети, подобен на ChatGPT 3. "В заданието и въпросите възложителите на промптове непрекъснато "притискат" изкуствения интелект да даде маркетингови стратегии и финансови прогнози, но тъй като той не е бил захранен с достатъчно данни, а е бил притискан да го прави, се оказва, че под силния "натиск" той е халюцинирал и лъже, просто защото водещо е да удовлетвори потребителя", обясни доц. Тодорова.
пон | вто | сря | чтв | пет | съб | нед |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 |
Винаги ще имате поне няколко ползи от тази дейност
16:54 / 09.11.2024
Адвокатите на Диди поискаха той да бъде освободен от ареста под г...
16:14 / 09.11.2024
Може да имате алергия, за която да не знаете: Имайте едно на ум, ...
15:24 / 09.11.2024
Когато Кока-Кола дойде в Пловдив и България за пръв път: Дадохме ...
13:59 / 09.11.2024
Актуални теми
Анкета
Не (14904) | 41% | |
Да, но отложено и превъртам реклами и съдържание (13376) | 37% | |
Да, гледам по традиционен начин (8158) | 22% | |