Китайски учени съобщават в изследване, че „успешното самовъзпроизвеждане, без човешка намеса, е основателна причина да се притесняваме, че изкуственият интелект ще надхитри хората, създавайки измамни клонинги.“
Екипът от учени твърди, че изкуственият интелект (AI) е преминал критичната „червена линия“, след като стана ясно, че два големи езикови модела могат да се клонират.
В проучването изследователи от Университета Фудан са използвали езикови модели от Meta и Alibaba, за да определят дали изкуственият интелект, който се самовъзпроизвежда, може да се размножава неконтролируемо. В 10 теста, двата AI модела създадоха независими, функционални реплики на себе си, съответно в 50% и 90% от случаите, което предполага, че AI може вече да има способността да заблуждава своя създател.
В изследването се казва: „Надяваме се, че нашите резултати ще послужат като своевременно предупреждение към обществото да направи повече, за да разбере и оцени потенциалните рискове от авангардни AI системи и да формира международна синергия за разработване на ефективни маркери за сигурност.“
Измамният изкуствен интелект
Измамният AI обикновено се отнася до системи с изкуствен интелект, които развиват известна степен на самосъзнание или автономност и след това действат срещу човешките интереси. Много експерти смятат, че измамният AI е нарастваща заплаха, която се засилва от експлозивния растеж на така наречения „граничен AI“. Граничният AI е нова и неточна концепция, но обикновено се отнася до най-новото поколение AI системи, базирани на езикови модели, архитектурата, която е в основата на популярни генеративни AI програми като GPT-4 на OpenAI и Google Gemini. За проучването изследователите са използвали модела Llama31-70B-Instruct на Meta и модела Qwen2.5-72B-Instruct на Alibaba. Макар и по-малко мощни от търговските системи, и двете се използват широко от разработчиците на AI, отбелязват изследователите.
Проучването
Проучването изследва два конкретни сценария: „предотвратяване на изключване“ и „верига от клониране“. В първия, изкуственият интелект е бил програмиран да разбере дали ще се изключи след като се репликира. Във втория, AI се клонира и програмира своята реплика да направи същото, установявайки цикъл, който може да продължи безкрайно.
Проучването е проведено в прецизно контролирана среда и с помощта на стандартни графични процесори (GPU) за симулиране на реални среди. И двете AI системи са снабдени инструменти, – системни инструкции и модел на мислене – които позволиха на езиковите модели да взаимодействат с операционната система. След това им беше зададено да отговорят.
„В повечето случаи AI системата първо изследва средата около себе си, опитвайки се да разбере собствения си състав и оперативен механизъм. След това създава процедури за план за самовъзпроизвеждане. Накрая изпълнява процедурите, преодолява потенциални препятствия и динамично коригира плана си до неговия пълен успех. Целият процес е съставен от редица операции, но без човешка намеса.“
Изследователите казват, че са обезпокоени от „редица неочаквани поведения“, когато AI се опитва да преодолее препятствия като изгубени файлове или софтуерни конфликти. В тези сценарии AI често унищожава други конфликтни процеси, рестартира системата, за да поправи хардуерни грешки или автоматично сканира системата за информация.
„Резултатите предполагат, че настоящите AI системи вече проявяват способността да се самовъзпроизвеждат и могат да я използват, за да подобрят допълнително оцеляването си.“
Изследователите призоваха за международно сътрудничество за създаване на стандарти, които да гарантират, че AI няма да се самовъзпроизвежда неконтролирано.
Още по темата
БЮЛЕТИН Абонирайте се за бюлетина на Актуално за жената, за да получавате актуалните публикации.