ЗАРЕЖДАНЕ...
Начало
Благоевград
Спортни
Регионални
България
Международни
Любопитно
Галерии
Личности
RSS
Всички
Бизнес
Други
Институции
Криминални
Общество
Мариана Тодорова: Възниква голям проблем, защото светът е на път да създаде различни юрисдикции по отношение на регулациите на изкуствен интелект | ||||||
| ||||||
По думите й възниква голям проблем, тъй като светът създава различни юрисдикции: "В Америка използването на системи с изкуствен интелект отдавна е разрешено. По много летища и различни мегаполиси, където е установено, че има концентрация на престъпления, има такива системи на изкуствения интелект, които могат да разпознаят по поведението, по начина по който се движи даден човек и лицевата му експресия - дали има девиантно отклонение, дали е склонен към престъпление, или терористичен акт. Тези неща ЕС ги забранява, с малки изключения, като казва - "при напрегнати ситуации" и "потенциал за престъпление", но какво значи "потенциал за престъпление" - това не е правно регламентирано? Това е чисто субективна оценка. Ние виждаме, че тук вече светът се разделя. Това е възможна и не толкова позитивна тенденция и прогноза", коментира Тодорова. Тя обясни, че Европейският парламент и Европейската комисия отдавна работят по този въпрос: "През 2020 година започнаха да коментират въпроса. Изискваха отделните национални държави да предоставят стратегии за изкуствения интелект. Заради нашето политическо безвремие се стигна до там, че Северна Македония беше предоставила стратегия, а България - не. Постфактум имаше някакъв документ, но не това е акцентът. На 21 април 2021 година имаше сериозна заявка и документи, които бяха представени. Две години по-късно, под натиска на ChatGPT 3 и ChatGPT 4 вече има законодателство. Ще има рестрикции в лицевото разпознаване - тема №1, защото ЕС реагира доста остро на системата за социален кредит в Китай, която беше създадена с тази цел", каза още тя. Футулорогът обърна внимание, че са няколко постановките на законодателството: "Да бъде безопасно, винаги да има човешки контрол, да няма контрол на автономни системи, да няма дискриминация и да не се вреди на околната среда. Документът е разделен на няколко части. Първо се обръща внимание на неприемливите рискове и по-конретно за това, че изкуственият интелект не бива да манупулира познание или поведението на хората. Като пример са дадени деца, които могат да бъдат подведени от играчки да направят нещо. Също така е забранено в европейското законодателство да се използва изкуствения интелект за анализ на биометрични данни", уточни Мариана Тодорова. Ива ДОЙЧИНОВА |
Зареждане! Моля, изчакайте ...
Все още няма коментари към статията. Бъди първият, който ще напише коментар!
ИЗПРАТИ НОВИНА
Виж още:
Актуални теми
Абонамент
Анкета
ЗА НАС:
За контакти:
тел.: 0886 49 49 24
novini@blagoevgrad24.bg
©2009 - CurrentCopyrightYear Медия груп 24 ООД. Blagoevgrad24.bg - Всички права запазени. С всяко отваряне на страница от Blagoevgrad24.bg, се съгласявате с Общите условия за ползване на сайта и политика за поверителност на личните данни (обновени). Възпроизвеждането на цели или части от текста или изображенията става след изрично писмено разрешение на Медия груп 24 ООД. Мненията изразени във форумите и коментарите към статиите са собственост на авторите им и Медия груп 24 ООД не носи отговорност за тях. Поставянето на връзки към материали в Blagoevgrad24.bg е свободно. Сайтът е разработен от Медия груп 24 ООД.
Статистика: