ChatGPT "лъже", когато е форсиран да направи нещо
©
Една инвестиционна компания решава да направи експеримент, използвайки Alpha – чатбот за финансови съвети, подобен на ChatGPT 3. "В заданието и въпросите възложителите на промптове непрекъснато "притискат" изкуствения интелект да даде маркетингови стратегии и финансови прогнози, но тъй като той не е бил захранен с достатъчно данни, а е бил притискан да го прави, се оказва, че под силния "натиск" той е халюцинирал и лъже, просто защото водещо е да удовлетвори потребителя", обясни доц. Тодорова.
пон | вто | сря | чтв | пет | съб | нед |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 |
Помагат ли упражненията вечер да спим по-добре?
22:25 / 19.09.2024
Актуални теми
Анкета
Не (12041) | 41% | |
Да, но отложено и превъртам реклами и съдържание (10834) | 37% | |
Да, гледам по традиционен начин (6625) | 22% | |