Дори специалисти от бранша, като Сам Алтман, който стои зад проекта ChatGPT, подчертават потенциалните опасности. ЕС е водещ в създаването на всеобхватни правила за изкуствения интелект, които целят прозрачно, справедливо и безопасно внедряване на AI, без да се затруднява растежът на стартъпите – баланс, подчертан от комисаря по промишлеността на ЕС Тиери Бретон.
В регламентите на ЕС изкуственият интелект се категоризира в четири рискови групи – неприемлив, висок, среден и нисък риск – като се създава предпоставка за ясен надзор. Неприемливите рискове включват системи, налагащи промени в поведението и биометрично разпознаване в реално време.
Високорисковият изкуствен интелект, като автономните превозни средства и технологиите за наблюдение, изисква контрол преди навлизане на пазара, като се гарантират основните права. Среднорисковият генеративен изкуствен интелект, произвеждащ съдържание като ChatGPT, изисква прозрачност на операциите и етикетиране на съдържанието.
Нискорисковият AI, който се занимава с манипулиране на съдържание и обслужване на клиенти, се сблъсква с минимални изисквания за прозрачност, като просто информира потребителите за взаимодействието с изкуствения интелект. Въпреки тези мерки, съществуват опасения, че разпоредбите ще остареят поради бързото развитие на AI.
Реакцията на технологичния сектор е различна, като някои групи, като CCIA, критикуват потенциалното свръхрегулиране, опасявайки се, че то може да задуши иновациите.
Защитниците на потребителите от BEUC изразяват тревога от снизходителността на закона към саморегулирането от страна на компаниите, особено по отношение на виртуалните асистенти и генеративния изкуствен интелект като ChatGPT. Докато ЕС има за цел да прилага тези разпоредби, други държави са издали необвързващи насоки.
За разлика от тях Китай силно ограничава частното използване на изкуствен интелект, като се фокусира върху контролирани от държавата системи като широко разпространеното разпознаване на лица, като същевременно забранява достъпа до модели като ChatGPT.