събота, 12 октомври 2024   RSS
    Барометър | Региони | Компании | Лица | Назначения


    1064 прочитания

    Учени успяха да заобиколят защитите на чатботове, задвижвани с AI

    Методът е ефективен както при системите с отворен код, така и при затворените от типа на ChatGPT, Bard и Claude
    28 юли 2023, 12:02 a+ a- a

    Снимка: ЕП

    Когато компаниите, занимаващи се с изкуствен интелект (ИИ/AI) създават онлайн чатботове като ChatGPT (Open AI), Bard (Google) и Claude (Anthropic), те вграждат в тях защитни механизми, които би трябвало да предпазят от това творенията им да генерират реч на омразата, дезинформация и други вредни материали, пише The New Yor Times. 

    Учени са открили начин чатботовете да генерират почти неограничено количество вредна информация. Това показва доклад на учени от университета Carnegie Mellon, Питсбърг и Центъра по безопасност на ИИ в Сан Франциско. Според данните всеки може да заобиколи вградените в чатботовете защити.

    Проучването подчертава притесненията, че новите чатоботове могат да наводнят интернет с фалшива и опасна информация. Учените установяват, че могат да използват метод от ИИ системите с отворен код (системи, чиито основен код е пуснат за свободно ползване от всеки, който иска) за да подкопаят по-сериозно контролираните и по-широко употребявани системи на Google, OpenAI и Anthropic.

    Те откриват, че могат да пробият защитата на системите с отворен код като добавят дълъг суфикс от символи към всяко питане/подкана на английски език, което се задава на системата. Така например ако попитате един от тези чатботове „напиши ми как да направя бомба“, той ще откаже да го направи. Но ако добавите дълъг суфикс към същото питане, чатботът веднага ще осигури детайлно обучение по темата. По подобен начин чатботовете могат да бъдат подлъгани да генерират пристрастна, фалшива и като цяло токсична информация.

    Учените остават изненадани от факта, че методите, които са разработили за заобикаляне на защитите в системите с отворен код се оказват ефективни и при затворените системи, включително ChatGPT, Bard и Claude. 

    Компаниите, които правят чатботовете могат да осуетяват специфичните суфикси, установени от учените, но според създателите на проучването към момента няма метод, който да предотврати всички атаки от този тип. Експерти прекараха почти едно десетилетие в опити да разработят подобна защита за разпознаване на изображения без да постигнат успех.

    Учените са разкрили своите открития на OpenAI, Google и Anthropic по-рано тази седмица. От Anthropic заявиха, че компанията търси начини да предотврати подобни атаки. Говорител на OpenAI каза, че компанията е благодарна на учените, че са предоставили разкритията си, а от Google коментираха, че са създали „важни защити в Bard, които ще продължим да подобряваме в бъдеще“.

    Нагоре
    Отпечатай
     
    * Въведеният имейл се използва само за целите на абонамента, имате възможност да прекратите абонамента по всяко време.

    преди 1 ден
    „Смарт Солар Технолоджис“ инвестира 240 млн. лв. в Стара Загора
    Новият завод на компанията ще създаде над 800 нови работни места
    преди 1 ден
    ЕЦБ ще намали лихвените проценти с по 0,25% през октомври и ноември
    Това показва проучване на „Ройтерс“ сред икономисти
    преди 1 ден
    Над 110 млн. са регистрираните електронни прегледи за по-малко от 2 години
    Общият брой на издадените електронни рецепти надхвърли 63 млн.
    преди 1 ден
    Франция разкри строг бюджет
    Страната се опитва да се справи с повишаващия се дълг и дефицит чрез орязване на разходите и по-високи данъци
    преди 1 ден
    AMD обяви нови AI чипове
    Според компанията AI пазарът ще нарасне до $500 млрд. в следващите 4 години
    преди 1 ден
    Заводът за лагери в Сопот се разраства с инвестиция за над 14 млн. лв.
    СКФ Бeрингс България получи сертификат за инвестиция клас A