Футурологът доц. д-р Мариана Тодорова в интервю за предаването "България, Европа и светът на фокус" на Радио "Фокус"

Преди месеци Илън Мъск обяви, че работи по алтернатива на популярния чат-бот ChatGPT на Open AI. Новият проект ще се нарича TruthGPT и ще има за цел да създаде изкуствен интелект, който търси истината. Приветствам в ефира ни Мариана Тодорова. Тя е футуролог и заедно с нашия програмен директор Ива Дойчинов всяка неделя заедно разглеждат сценариите от бъдещето, но днес Мариана е мой гост. Здравей, Марианка.

Здравейте.

Какво е известно за проекта на Мъск към настоящия момент?

Всъщност той иска да бъде енигматичен, за да успее да създаде любопитство в  целия свят преди окончателно да анонсира своя продукт, но има все пак някаква информация, която ни дава повод да разсъждаваме и да разгърнем няколко тези. Още през април месец той обяви, че ще създаде TruthGPT - голям езиков модел, който да търси истината. Като тогава заяви, че ще търси максимално да можем да разгадаем принципите на Вселената и самият изкуствен интелект да бъде обучен на критериите за истина, защото всъщност той така уязвява в най-слабото място ChatGPT - негови конкуренти в лицето на Сам Олтман и OpenAI, и макар че както известно на нашата аудитория, че Илън Мъск участва в създаването на OpenAI през 2015 година и напуска през 2018 година. Версиите са различни: Някои смятат, че е имало несъгласие в това как да се развива този изкуствен интелект, дали наистина да бъде като отворен код, достъпен за всички. Други твърдят, че той просто е искал да превземе властта отвътре и да се случва всичко така, както той желае. Към днешна дата виждаме, че той леко променя тази концепция за TruthGPT от април месец, и всъщност името на компанията, която Илън Мъск  регистрира преди 5 дни и на която той ще е председател, се нарича xAI, като "Х“ е буквата от английската азбука, която обикновено обозначава всичко. Т.е. той има амбициите да покажа, че този изкуствен интелект ще бъде вездесъщ, ще разбера от всичко, но също така има и заиграване с думата "експлей“, т.е. този, който ще е по-добър и ще може да обяснява.

И може би по този начин Мъск, заявявайки, че ще търси истината, поставя едно петно върху ChatGPT.

Да, всъщност, той е свикнал да бъде винаги лидер на мнението. Последните години се ползва с комфорта на това да бъде истински основател на нови тенденции и трендове, винаги да бъде на гребена на вълната. Компаниите, които регистрира, са изключително иновативни и някои от продуктите, които той разработва, наистина са емблематични. Много други традиционни автомобилни компании правят електрически автомобили преди него, но той успя да привлече внимание и финансиране към "Тесла“. Също така той успя до ползва технологии, които си известни на НАСА, и дори и на руската космонавтика от 60-те години, така че да оптимизира разходите. Т.е. сега виждайки, че губи инициативата, че в световен мащаб ChatGPT стана революция, както сме си говорили и с теб, и с Ива многократно. Той се опитва да анонсира своя продукт, който е по-добър. За съжаление обаче към момента ние не виждаме да има параметри и нещо, което реално е изработено като софтуер, като по-съвършени невронни мрежи или нови подходи за машинобучение, дълбоко обучение, които да помогнат с обучение – това, с което са известни тези езикови модели. По-скоро той в момента събира екип и заявява една цел, която според мен не е постигнал, но разбира се, не пречи да опита да го направя.

Мъск обяви, че работи по алтернатива на ChatGPT и новият проект ще се нарича TruthGPT и ще има за цел да създаде изкуствен интелект, който търси истината. Мъск също така посочва, че неговата основна мотивация произтича от притеснения, свързани с посоката на развитие на AI и заплахата, която технологията може да представлява за човечеството. Поставил си е цел, но тя не е толкова ясна все още. Разговаряме в ефира ни с футуролога Мариана Тодорова. Наблюдавайки работата му през годините как може да очакваме Илон Мъск да противодейства?

Всъщност той направи няколко противодействия. Първото е, че свика една петиция, в която привлече много знаменитости, които създават изкуствен интелект. Включиха се над 3000 лидери на мнение по тази тема през март. Това е и момента, когато Мъск поиска пауза. И всъщност тогава отново мненията бяха разделени на две. Някои смятаха, че това негово искане е, защото наистина е загрижен и ние тепърва, мисля че още края на тази година ще можем да направим една рекапитулация и да видим какви са ефектите във всички области. А други смятаха, че е изгубил инициативата и печели време, за да създаде собствена компания. Вероятно и двете причини са като част от неговата мотивация. А това, което той заявява за новата компания, е първо, наистина да разгадаем тайните на Вселената и да спечелим конкурентно предимство спрямо всичко, което е правено до момента, защото ще имаме по-голяма яснота. Другото е да се избегнат недостатъците, които много ясно вече се видяха при OpenAI, при ChatGPT - да се продуцират фалшиви новини, той да халюцинира, данни, които не са верни. Но това е част от начина, по който работи технологията. А въпросът е следният, че няма към момента успешен модел, в който ние да можем да кодифицираме, т.е. да създадем код на това кое е истина, кое не. Защото самото човечество няма консенсус по отношение на много исторически факти по отношение на действителността, и даже истинността им.

Точно така, да.

Впредаването "Сценарий от бъдещето" с Ива Дойчнова много често разговаряме за това, че ние вече живеем във време, в което всичко е течно, флуидно и конструирано, и фактите, интерпретациите се конструират според удобството, моментната конюнктура, и дори вече и на нас ни е трудно да изградим мнение за това кое е истина или не. А изкуственият интелект почива на този феномен. Когато аз видя някаква странна и противоречива снимка, първото нещо, което вече правя, е не да анализирам нейното съдържание и какво послание носи, както и да проверя дали е истина. Същото се отнася и за новините. По същия начин реагирах и когато разбрах, че Илън Мъск предизвиква на двубой Марк Зукърбърг, и смятах, че това е абсолютно фалшива новина, но се оказа, че това е следващият негов ход, с който той търси PR за себе си, световно внимание и стремеж да парира амбициите на Марк Зукърбърг да създаде алтернативна на Twitter медия – Threads, която въпреки неговите усилия, той не успя да я спре, и знам, че към днешна дата вече има около 70 милиона активни потребители. Т.е. Илън Мъск осъзнава своята сила, той многократно е променял валутни курсове на криптовалути, ползвайки почина на Джордж Сорос, който беше обвиняван дълго време, че е влияел върху британската лира. И много често със свои изказвания той е успявал дори да повлияе на икономически сили, финансов сектор. Сега също се опитва да сменя трендовете, но това като цяло създава една несериозност и девалвира отношението към подобно личности, към това как към днешна дата се гради визионерство, лидерство,  не само политическо, и икономическо.

И може би неговата цел да търси истината изглежда много трудна, тъй се появява едно чувство все повече за нереалност, за неистинност в това, което виждаме.

Да, и всъщност той ясно осъзнава, че това започва да тревожи хората, тъй като губим критериите за истинност и това доста сe подсилва от самите технологии, от изкуствения интелект, и знае, че това би се възприело доста добре, че рано или късно човечеството ще осъзнае, че точно от това има нужда – да ползваме тази технология, но да премахнем онази нейна част, която всъщност унищожава истината, унищожава експертизата. Също така връща мнението на авторитетите и създава свят, който е стабилен, но не такъв, който вече ние не знаем всъщност дадена история дали е написана от изкуствен интелект или е истинска история, която се е случила. Друг пример, който аз давах при Ива, беше, че тъй като Северна Македония, нашите съседка, е доста по-активна с пропагандно намерение да създава историческо съдържание, тъй като данните чисто количествено за историята на тази страна доминират, когато питаме ChatGPT, особено на английски за исторически факт, свързан с нашата обща история, интерпретацията е в полза на Северна Македония. Не защото той желае преднамерено да лъже, а просто защото количеството данни, на които е обучен на английски са повече създадени от северномакедонски историци. И всъщност виждаме нещо, което не е преднамерено при самата технология, само заради струпването на определени данни как изкривява историческата истина.

И затова всъщност, отново като визионер и стратег Мъск напипва много чувствително и важна тема. Но наистина е много трудно това да се постигне към този момент, но пък не пречи той да опитва и да привлече най-блестящите умове, с които може би до година-две ще успее да постигне своята цел.

Говорейки си с теб за съмненията в истинността на дадено изображение, на някаква новина и на каквото и да е било вече в днешно време, правим плавния преход към другата тема, която ще обсъдим в следващия сегмент, а именно започналите процеси на американските власти срещу OpenAI. Федералната търговска комисия на САЩ започна разследване на компанията OpenAI, която създаде чат-бота ChatGPT. От комисията смятат, че чат-ботът на компанията може да е нарушил законите за защита на потребителите, като е изложила лична репутация и данни на риск. Ходът бележи най-силната може би регулаторна заплаха за подкрепени от Microsoft стартъп, който даде началото на мания към генеративния изкуствен интелект, увличайки потребителите и бизнеса, но и пораждайки опасения за потенциалните рискове. Затова си говорим в следващите минути с футуролога Мариана Тодорова. В риск ли са личните ни данни?

Да, в риск са, макар че ние нямаме все още категорични доказателства, че OpenAI ползва чувствителни данни, т.е. тези, които разкриват информация, за която ние не бихме желали да споделим. Но още когато беше обявен продуктът през края на ноември миналата година много специалисти, които се занимават със софтуерно инженерство, смятаха тогава, че тъй като е изключително добър и точен ChatGPT 3 и по-късно ChatGPT 4, смятаха, че са използвани повече данни от тези, които компанията обяви. Какво значи това? Че най-вероятно той е трениран не само на цялата налична информация в интернет и "Уикипедия“ до септември 2021 година, но вероятно би могъл да бъде също така обучен на много специфики и данни, които са ползват от имейли, лична комуникация, профили във "Фейсбук“ – това, за което беше обвинена "Кеймбридж Аналитика" преди няколко години затова, че дотолкова се е намесила на американските избори, че е помогнала на Тръмп да спечели изборите. Ние нямаме доказателство за това.

Вероятно това ще бъде един от ефектите, които ще се разследват, но според мен причината за тези оплаквания и самосезирането на комисията след тях, е друга. И всъщност тук ни се разкрива един голям парадокс, и той се състои в това, че комисията цели да защити правата на потребителите, но всъщност сякаш липсва разбирането или поне, че първо това трябва да бъде обяснено, че самият ChatGPT3, този голям езиков модел, генеративен модел работи така, че неизбежно да има изкривявания, фалшива информация, просто защото принципите, на които той е трениран, работят така. И сега ще обясня какво имам предвид.

Това се нарича "изравняване с потребителите“ – alignment.  За това е голям въпросът, с който се занимават не само самите инженери, но и философи, футуролози като мен. Т.е. той е трениран така, че винаги да намери някакъв начин да отговори на запитването, т.е. винаги да удовлетвори потребителя.

Т.е.  потребителите лъжат, и той лъже, ако мога така да кажа.

Това е така, защото изкуственият интелект много често отразява нашите предразсъдъци, тъй като ние имаме расистки предразсъдъци и полови предразсъдъци – многократно сме дискутирали, че изкуственият интелект също когато подбира кадри чрез HR платформи или когато търси престъпници проявява тези предразсъдъци. Но в случая тук имаме нещо друго: Желанието, стремежът, т.е. задачата, на която е научен този изкуствен интелект, е винаги да даде отговор. Този отговор винаги се дава на принципа на функционирането на най-добрата асоциация. Той е обучен да търси най-добрата асоциация на всяка една дума, на която е запитан. Ако ние питаме: Какво ще е времето утре, той ще търси асоциация на всяка една дума поотделно, но и на всички заедно. Обяснявам това, защото когато аз питах за една статията, касаеща  епигенетиката – това е наука, която доказа, че е нашите гени са променят и от живота, средата, а не само това, което сме наследили, той ми цитир статия в списание "Nature“, която не съществува. И ако аз не бях проверила, щях да бъда подведена и да изложа моя авторитет като учен, просто защото щях да съм се предоверила. Но това не е преднамерено, той просто е намерил асоциация на моето записване в струпване от думи и си е измислил, халюцинирал тази несъществуваща статия.

Както се беше случило и с един адвокат, който се беше предоверил за едно дело на ChatGPT, вие го коментирахте с Ива скоро в предаването.

Точно така.

Юрист, който се беше предоверил на информацията, която му предостави ChatGPT. 

Това щях да дам като следващ пример, но благодаря, че ти ме подсещаш и го даде. Много често това се случва и с препоръки за диети, препоръки как да инвестираме своята пари, но това не е преднамерено. Този изкуствен интелект все още няма съзнание и той не цели да манипулира, просто механизмът, по който той е конструиран, е винаги да дава най-добрия отговор. И в 90% от случаите отговорът наистина е много добър и е блестящ, но винаги се проявяват такива пукнатини. Именно това е слабото звено, което вероятно е ощетило много потребители, които са се доверили за финансови съвети, за здравни съвети, за съвети спрямо храната, нутриционизма и лично здраве и какво ли още не. И разбира се, те са в правото си да сезират комисията и да търся твоите права по съдебен начин. Но това е големият парадокс: Самата технология не е виновна, просто защото тя е в етап на усъвършенстване, и няма как да се развие и да се усъвършенства без да работи и в ход да се отстранят тези дефекти. От друга страна обаче, тези дефекти са достатъчно сериозни и могат да нанесат сериозни щети. От трета страна, ние ще съдим, в случая комисията вероятно ще предизвика и дело, и съдебен процес без да има предварително създадена регулаторна рамка за това.

Точно така. Предлагам ти да си поговорим за това именно за регулаторния контрол върху технологията, която знаем, че може да промени начина, по който работят обществата и бизнеса, която вече ги променя. Докато надпреварата за разработване на по-мощни услуги с изкуствени интелект се ускорява, расте разбира се и необходимостта от регулаторния контрол върху самата технология. Марияна, според теб на какво трябва да се обърне внимание днес и какво е необходимо да се предприеме?

Ние сме безвъзвратно закъснели по отношение на регулаторните рамки, от едната страна. От друга страна аз съм в скептична, че ще можем чрез подходящи закони да обхванем всички дефекти, които тепърва ще виждаме като въздействие от изкуствения интелект. Защото знаем, че в Америка демокрацията функционира, така че всички за търсят своите права за всичко, и това е и механизъм за много добър коректив, но понякога и опортюнистите се възползват от това. Да речем, че вероятно стотици хора са сезирали комисията, която дискутираме, по различни казуси, и те ще заведат дела, но тука някой от тях вероятно ще бъдат спечели, други не, защото в случая с адвоката, който цитирахме, според законодателството на щата Ню Йорк, всеки, който цитира някакви казуси и дела, тъй като там правото е прецедентно, трябва да ги е прочел. Съответният адвокат не ги е прочел, защото те е не са истина, просто той се е предоверил на изкуствения интелект. Какво биха могли да направят 2 000 журналисти, които бяха освободени от Bild, защото просто създават съдържание, и това вече се прави от такива генеративни модели на изкуствен интелект – биха могли също така да заведат дело, че са освободени неправомерно.

Също така хора, които са питали изкуствения интелект за здравния статус и са предприели някакви решения и действия, които в крайна сметка се увредили тяхното здраве, но това показва, че ние имаме нужда не само от регулация, но и от нов тип просвещение, което наистина ще е много необходимо и дигитална грамотност също така – как да работим и да разбираме изкуствения интелект, и кое да приемаме като достоверна информация, как да проверяваме. Т.е. ние наистина сме много улеснени от това, че в синтезиран вид получаваме много информация, но винаги трябва да знаем, че тя може да е фалшива. Но това са проблемите с безработицата, с фалшивата информация, с това, че можем да бъдем склонени към вредни избори за нас, са ясните неща.

Как обаче можем да регулираме факта, че изкуственият интелект още догодина в Америка ще се използва като част от пропагандата машина за провеждането на новите избори, и чат-ботовете ще заменят човешката тролове. И всъщност от начина, по който тези истории ще бъдат разпространени, изпратени на потребители в техните социални медии, ако те са написани добре, убедително, те биха могли да преобърнат резултатите за изборите. Това може ли да се регулира правно? Все още не. Коментирахме го с Ива Дойчинова - използването на чат-ботове в чувствителни кампании и материали, но това също е трудно доказуемо, тъй като не е разработен софтуер, който да каже, че нещо е създадено от ChatGPT. Вероятно до една-две години ще го има. Но докато съществува тази празнота, много хора биха могли да се възползват. То всичко се случва толкова бързо, че е ефектите на едно събитие влияят върху неговите причини и го изменят изначално, и преди причините да се случили, ефектите вече изкривяват случая.

Може би затова паузата, за която все пак Илон Мъск призова, щеше да е полезна в този случай, просто защото имае нужда да осмислим или поне да наблюдаваме, да спечелим време да видим какво се случва навсякъде, и кое вреди дотолкова, че наистина да трябва да бъде спряно и регулирано. Но все пак етиката изисква да кажем, че в редица други области, непрекъснато аз следя всеки ден, особено в медицината излизат много данни за възможността да проследим рак на панкреаса, така че той да стане лечим. В момента 80% от случаите са с летален изход.

И съвсем на финала, ако може да обобщим с теб този разговор.

Важното е това, което ние можем да направим, всеки един от нас, преди да очакваме защита от съдебната система или от решението на отделните национални държави, е да ползваме и да познаваме технологията. Защото изкуственият интелект ще бъде неизбежна част от нашия живот за в бъдеще искаме или не искаме това, но трябва да имаме личната мотивация да се самообразоваме всеки ден, за това ползвайки я, как можем да надградим своето мнение, да спестим много време, включително и това, че изкуственият интелект би могъл да помогне работната седмица да е четири дни, защото повишава ефективността. Но същевременно да сме наясно, че не всичко е такова, каквото изглежда, че трябва да проверяваме, че трябва да запазим своите усилия да четем източниците и да не се предоверяваме на сляпо. Това можем да направим преди тези по-тромави законодателни машини и решения на националните държави да се задействат и да намерят решение на тези проблеми.