Тестът на Тюринг вече не е релевантен критерий за наличие на съзнателен изкуствен интелект. Той е създаден през 50-те години на миналия век и към онзи момент е оправдан, но в момента имаме нужда от ревизия на това какви са критериите за това един изкуствен интелект да бъде генерален, тоест като нас. Това каза футурологът доц. д-р Мариана Тодорова в предаването "Сценарий от бъдещето" на Радио "Фокус" с водещ Ива Дойчинова.

Алан Тюринг твърди, че ако изкуственият интелект може да заблуди човек, че общува с друг човек, той може да се счита за генерален. Критериите, върху които този тест се базира обаче, според много учени трябва да бъдат осъвременени и съобразени с интелигентността на съвременните машини. Според някои новият Тест на Тюринг трябва да е в състояние да издържи студентски изпит. "Ние видяхме, че ChatGPT 3.5 издържа изпити по право, по медицина, по счетоводство, така че това вече не е достатъчен критерий. Може би по-добрият вариант на тестване е дали изкуственият интелект може да функционира в някакъв момент от време като човек – да стане, да отиде до кафе машината, да си направи кафе, да прочете една новина, да я тълкува, да си постави цел и да я изпълни", поясни доц. Тодорова.

Тя разказа за експеримент, който провеждат учени от Калифорнийския университет. Те формират група от 650 човека и ги поставят в среда, в която има един оценител, двама човека, с които той общува, а "третият" елемент е изкуствен интелект. Целта е да се види кой от тези езикови модели ще премине Теста на Тюринг, т.е. ще успее да заблуди оценителяц че е човек. "ChatGPT 3 и 4 се провалят тотално, но не защото те не са добри в отговорите си, а просто защото ние вече имаме умствената нагласа какво да очакваме. Когато виждаме една изключително добре структурирана информация по определен шаблон, ние много ясно разбираме, че това е ChatGPT 3 или 4. Чатботът, който успява да заблуди хората, е ELIZA, съществуващ още от 1964 г. ( и заради, когото белгиец се самоуби преди няколко месеца). Това се случва не защото той е съвършен, а защото напротив, не е политически коректен, понякога е много груб и  греши много, затова участниците в експеримента са на мнение, че ИИ не би могъл да бърка чак толкова", разказа доц. Тодорова.