Мариана Тодорова: Възниква голям проблем, защото светът е на път да създаде различни юрисдикции по отношение на регулациите на изкуствен интелект
© Фокус
По думите й възниква голям проблем, тъй като светът създава различни юрисдикции: "В Америка използването на системи с изкуствен интелект отдавна е разрешено. По много летища и различни мегаполиси, където е установено, че има концентрация на престъпления, има такива системи на изкуствения интелект, които могат да разпознаят по поведението, по начина по който се движи даден човек и лицевата му експресия - дали има девиантно отклонение, дали е склонен към престъпление, или терористичен акт. Тези неща ЕС ги забранява, с малки изключения, като казва - "при напрегнати ситуации" и "потенциал за престъпление", но какво значи "потенциал за престъпление" - това не е правно регламентирано? Това е чисто субективна оценка. Ние виждаме, че тук вече светът се разделя. Това е възможна и не толкова позитивна тенденция и прогноза", коментира Тодорова.
Тя обясни, че Европейският парламент и Европейската комисия отдавна работят по този въпрос: "През 2020 година започнаха да коментират въпроса. Изискваха отделните национални държави да предоставят стратегии за изкуствения интелект. Заради нашето политическо безвремие се стигна до там, че Северна Македония беше предоставила стратегия, а България - не. Постфактум имаше някакъв документ, но не това е акцентът. На 21 април 2021 година имаше сериозна заявка и документи, които бяха представени. Две години по-късно, под натиска на ChatGPT 3 и ChatGPT 4 вече има законодателство. Ще има рестрикции в лицевото разпознаване - тема №1, защото ЕС реагира доста остро на системата за социален кредит в Китай, която беше създадена с тази цел", каза още тя.
Футулорогът обърна внимание, че са няколко постановките на законодателството: "Да бъде безопасно, винаги да има човешки контрол, да няма контрол на автономни системи, да няма дискриминация и да не се вреди на околната среда. Документът е разделен на няколко части. Първо се обръща внимание на неприемливите рискове и по-конретно за това, че изкуственият интелект не бива да манупулира познание или поведението на хората. Като пример са дадени деца, които могат да бъдат подведени от играчки да направят нещо. Също така е забранено в европейското законодателство да се използва изкуствения интелект за анализ на биометрични данни", уточни Мариана Тодорова.
Ива ДОЙЧИНОВА
пон | вто | сря | чтв | пет | съб | нед |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Нана Гладуиш от Америка: Отне ми 2 месеца да разбера как мога да ...
21:34 / 08.01.2025
Добър съвет към младите шофьори – когато ти светне таблото
17:53 / 08.01.2025
Правилната температура, при която трябва да съхранявате различнит...
14:33 / 08.01.2025
Вредните навици, които оказват влияние върху паметта
14:01 / 08.01.2025
Уролог: Ако човек е диагностициран с киста, например с диаметър 1...
13:18 / 08.01.2025
Сеизмолози предупреждават: Има риск от земетресение с магнитуд 7 ...
11:42 / 08.01.2025
Актуални теми