Ако ние вече не разбираме технологията на генеративния изкуствен интелект изцяло, как ще можем, когато тя се усложни и стигнем до общ изкуствен интелект? Ние нямаме грамотността да ползваме вече постигнатото и капацитета дотук, което от една страна е добре, защото забавя целия процес, печели ни време и ни прави по-подготвени, но от друга страна е плашещо, защото показва, че все още дори ключови играчи не си дават сметка какво имаме. Това каза футурологът доц. д-р Мариана Тодорова в предаването "България, Европа и светът на фокус“ на Радио "Фокус“.  

Тя коментира изказаните от Сам Алтман на форума в Давос притеснения относно развитието и възможностите на общия изкуствен интелект. 

Футурологът обясни, че генеративният изкуствен интелект е граничен, защото надскача възможностите на тесния изкуствен интелект. Той е обучен на множество езикови параметри, имитира разсъждения, води диалог, дава решения и дори е по-креативен от хората. Общият изкуствен интелект би имал някакъв тип самосъзнание и би могъл да разсъждава самостоятелно като отделна единица, би имал воля, би взимал решения, което е доста опасно.  

"В момента ми се струва, че цялата картина представлява един хаос и една стихийност, в която водещите играчи – политици, разработчици, учени, собственици на компании, си прехвърлят един "горещ картоф“ и никой не иска да го задържи в ръцете си. Същевременно те знаят, че този "горещ картоф“ е най-важният залог за бъдещето на успеха на отделните национални държави и на компаниите. Въпросът за контрола не се състои само в това дали ние имаме воля да контролираме изкуствения интелект, не касае само това, че ако има тежки регулации, ще спрем неговото развитие, а и това дали е възможно този тип сложна технология, която ще се превърне в същност, да бъде контролирана, първо чисто технически“, коментира доц. Мариана Тодорова.  

Тя поясни, че архитектурата на създаваните невронни мрежи е такава, че ние не можем да видим в пълнота и в комплексност какво се случва в тях. Те представляват своеобразна "черна“ кутия, подобна на нашия мозък. "Не можем да създадем критерии за истинност, които общият изкуствен интелект да изпълнява, защото нашите данни нямат такива. Не можем да кодифицираме морал, защото няма един всеобщ. Не можем да изградим механизъм срещу халюцинациите и предразсъдъците.“  

Доц. Тодорова коментира и заявката на Сам Алтман, че OpenAI скоро ще пусне ChatGPT 5.  

"Ние все още не сме видели в пълнота проявлението и масовата употреба на ChatGPT 4 и изобщо на поколението 4, което е мултимодално. Те го показаха в демонстрационните версии, ползва се, но частично. Т.е. ако искаме да видим надграждане над този модел и решаване на сложни математически задачи – нещо, по което те казват, че ще се отличава от всички останали, трябва да видим предходните. Или имат пробив с Q*, което стана поводът за оставката на Алтман, или просто заявяват място на терена, както Бил Гейтс и всички други правят“, заяви тя.  

Една от темите, които Алтман също засяга на форума в Давос, е възможността изкуственият интелект да окаже влияние върху резултатите от предстоящите избори в САЩ. "През 2016 г. с помощта на алгоритмите и любезното съдействие на "Фейсбук“, което те отричат, но не би могло да се случи без някакъв частичен достъп, имаше профилиране на милиони потребители с оглед на техните политически предпочитания. Сега, когато това е възможно и може да се насочват персонализирани послания, езиково и визуално съдържание спрямо всеки един, когато могат да се използват истории, създадени от генеративен изкуствен интелект, вместо човешки "тролове“, и най-вече когато има толкова убедителни видеа и фалшиви новини, които някои хора могат да използват, за да постигнат някакви внушения, има много повече възможности за влияние“, посочи доц. Тодорова.