Харари подчерта трудността да се предвидят многобройните възможни опасности, свързани с изкуствения интелект, за разлика от единичните катастрофични сценарии, които са по-лесно разбираеми, като например ядрените оръжия.
Харари, който е активна фигура в повишаването на осведомеността за развитието на AI, похвали многостранната декларация от неотдавнашната световна среща на върха за безопасността на AI като важна стъпка напред.
Той изтъкна значението на международното сътрудничество между основните правителства, включително Европейския съюз, Съединените щати и дори Китай, които подписаха декларацията, като положителен знак. Харари подчерта, че без глобално сътрудничество овладяването на най-опасните аспекти на AI ще бъде изключително трудно.
След срещата на върха беше постигнато споразумение между десет правителства, включително Обединеното кралство и САЩ, заедно с ЕС и ключови AI компании като OpenAI и Google, за сътрудничество при тестването на усъвършенствани AI модели преди и след пускането им на пазара. Харари подчерта характерното предизвикателство, което представлява AI, поради неговата автономност при вземането на решения и ученето, което по своята същност затруднява хората да предвидят всички потенциални рискове.
Що се отнася до конкретните опасности, Харари изтъкна потенциалната заплаха във финансовия сектор. Той отбеляза, че способността на тази технология да създава изключително сложни финансови инструменти, потенциално непостижими за човека, може да доведе до криза, подобна на финансовата катастрофа от 2007-2008 г., причинена от зле разбрани дългови инструменти.
Харари подчерта и катастрофалния риск, който би могла да представлява една финансова криза, предизвикана от AI, въпреки че уточни, че тя не би могла да доведе директно до колапс на човешката цивилизация.
Той препоръча да се съсредоточим върху създаването на стабилни регулаторни институции, разполагащи с експерти, способни да реагират бързо на възникващите рискове в сферата на изкуствения интелект. Харари подчерта, че е необходимо тези институции да се адаптират към новите технологични пробиви, вместо да разчитат единствено на конкретни предварително определени разпоредби.
Той изтъкна неотдавнашните съобщения за създаването на институти за безопасност на AI в Обединеното кралство и САЩ, като подчерта значението на тези органи за разбирането и тестването на усъвършенствани AI модели преди прилагането на законодателство за тяхното управление, както беше формулирано от Риши Сунак и Белия дом.
В обобщение, Харари се застъпва за създаването на гъвкави регулаторни институции със задълбочено разбиране на последиците от AI, особено в областта на финансите, с цел преодоляване и управление на рисковете, свързани с бързия напредък на изкуствения интелект.