Ученият, който стои зад писмото, призоваващо за пауза в разработването на мощни системи за AI, заяви, че писмото му е имало по-голям ефект от очаквания
Снимка: ЕК
Ученият, който стои зад писмото, призоваващо за пауза в разработването на мощни системи за изкуствен интелект (AI/ИИ), каза, че изпълнителните директори в технологичния сектор не са спрели работата си, защото са затворени в „надпревара към дъното“. Макс Тегмарк, съосновател на Future of Life Institute, организира отворено писмо през март, призовавайки за шестмесечна пауза в разработването на гигантски AI системи.
Въпреки подкрепата на повече от 30 000 подписали, включително Илон Мъск и съоснователя на Apple Стив Возняк, документът не успя да осигури пауза в разработването на най-амбициозните системи.
Говорейки пред Guardian шест месеца по-късно, Тегмарк каза, че не е очаквал писмото да спре технологичните компании да работят върху AI модели, по-мощни от GPT-4, големият езиков модел, който захранва ChatGPT, защото конкуренцията е станала твърде интензивна. „Чувствах, че частно много корпоративни лидери, с които разговарях, искаха [пауза], но те бяха хванати в капана на тази надпревара към дъното един срещу друг. Така че никоя компания не може да спре сама“, каза той.
Писмото предупреждава за „надпревара извън контрол“ за развиване на умове, които никой не може да „разбере, предвиди или надеждно контролира“, и призова правителствата да се намесят, ако мораториумът върху разработването на системи, по-мощни от GPT-4, не може да бъде договорен между водещи компании за изкуствен интелект като Google, собственика на ChatGPT OpenAI и Microsoft.
В документа се задава следния въпрос: „Трябва ли да развием нечовешки умове, които в крайна сметка биха могли да ни превъзхождат числено, да ни направят отживелица и да ни заменят? Трябва ли да рискуваме да загубим контрол над нашата цивилизация?“
Тегмарк, професор по физика в Масачузетския технологичен институт, каза, че смята писмото за успех. „Писмото имаше по-голямо въздействие, отколкото си мислех, че ще има“, каза той, посочвайки политическото пробуждане по отношение на AI, което включва изслушвания в Сената на САЩ с висши мениджъри в технологичния сектор и правителството на Обединеното кралство, свикващо глобална среща на върха за безопасността на AI през ноември.
Изразяването на тревога относно изкуствения интелект се превърна от табу в масов възглед след публикуването на писмото, каза Тегмарк. Писмото от неговия мозъчен тръст беше последвано през май от изявление на Центъра за безопасност на ИИ, подкрепено от стотици технически ръководители и академици, в което се заявява, че ИИ трябва да се счита за обществен риск наравно с пандемиите и ядрената война.
Според Тегмарк писмото е легитимирало говоренето за опасностите от AI, за които хората са се притеснявали да говорят преди това, за да не ги помислят за „всяващи страх лудити*“
Страховете около разработването на AI варират от непосредствените, като способността да се генерират дийпфейк видеоклипове и масово производство на дезинформация, до екзистенциалния риск, породен от суперинтелигентни AI, които избягват човешкия контрол или вземат необратими и решения с огромни последици.
Тегмарк предупреди да не се описва развитието на дигитална „богоподобна обща интелигентност“ като дългосрочна заплаха, цитирайки някои практикуващи AI, които вярват, че това може да се случи в рамките на няколко години.
Шведско-американският учен каза, че срещата на върха за безопасността на ИИ в Обединеното кралство през ноември, която ще се проведе в Bletchley Park, е „чудесно нещо“. Неговият мозъчен тръст каза, че срещата на върха трябва да се насочи към три постижения: установяване на общо разбиране за сериозността на рисковете, породени от ИИ; признавайки, че е необходим единен глобален отговор; и възприемане на необходимостта от спешна правителствена намеса.
Той добави, че все още е необходима пауза в разработката, докато не бъдат изпълнени глобалните договорени стандарти за безопасност. „Правенето на модели, по-мощни от това, което имаме сега, трябва да бъде спряно, докато отговорят на договорените стандарти за безопасност.“ Той добави: „Съгласието какви са стандартите за безопасност естествено ще предизвика паузата.“
Тегмарк също така призова правителствата да предприемат действия по отношение на моделите на ИИ с отворен код, които могат да бъдат достъпни и адаптирани от членовете на обществеността. Meta на Марк Зукърбърг наскоро пусна голям езиков модел с отворен код, наречен Llama 2, и беше предупреден от един експерт от Обединеното кралство, че подобен ход е подобен на „даване на шаблон на хората за изграждане на ядрена бомба“. „Опасната технология не трябва да бъде с отворен код, независимо дали е биологично оръжие или софтуер“, каза Тегмарк.
*Лудитите са социално движение от XIX век на английските производители на текстил, които протестират, често унищожавайки механизирани тъкачни станове, обявявайки се срещу промените, предизвикани от промишлената революция. Смятат, че тези промени ги оставят без работа и променят начина им на живот.