Нажмите "Enter" для перехода к содержанию

Грядет Армагеддон: выявлена способность ИИ создавать совершенно новые вирусы

Фото: создано с помощью нейросети gigachat

тестовый баннер под заглавное изображение

Эксперты из Стэнфордского университета в Калифорнии использовали Evo – инструмент ИИ, который создает геномы с нуля. Удивительно, но с помощью этого инструмента удалось создать вирусы, способные заражать и убивать определенные бактерии, рассказывает Daily Mail.

Автор исследования Брайан Хи, профессор вычислительной биологии Стэнфордского университета, утверждает, что “следующий шаг – это жизнь, созданная искусственным интеллектом”.

Хотя вирусы искусственного интеллекта являются “бактериофагами”, что означает, что они заражают только бактерии, а не людей, некоторые эксперты опасаются, что такая технология может спровоцировать новую пандемию или создать новое катастрофическое биологическое оружие.

Эрик Хорвиц, специалист по компьютерам и главный научный сотрудник Microsoft, предупреждает, что “искусственный интеллект может быть использован не по назначению для разработки биологии”.

“Разработка белков на основе искусственного интеллекта – одна из самых захватывающих и быстроразвивающихся областей ИИ на сегодняшний день, но такая скорость также вызывает опасения по поводу потенциального злонамеренного использования, – сказал эксперт. – Мы должны оставаться активными, добросовестными и творческими в управлении рисками”.

В ходе исследования команда использовала модель искусственного интеллекта под названием Evo, которая похожа на ChatGPT, для создания новых вирусных геномов – полных наборов генетических инструкций для организмов. Точно так же, как ChatGPT был обучен работе со статьями, книгами и текстовыми сообщениями, Evo был обучен работе с миллионами геномов бактериофагов.

Исследователи проанализировали тысячи последовательностей, сгенерированных с помощью искусственного интеллекта, прежде чем сузить их число до 302 жизнеспособных бактериофагов. Исследование показало, что 16 из них способны выслеживать и уничтожать штаммы Escherichia coli (кишечная палочка), распространенной инфекции, вызывающей заболевания у людей.

“Это был довольно неожиданный результат, который по–настоящему взволновал нас, потому что он показывает, что этот метод потенциально может быть очень полезен в терапии”, – комментирует соавтор исследования Сэмюэл Кинг, биоинженер из Стэнфордского университета.

Команда подчеркивает, что, поскольку их вирусы искусственного интеллекта являются бактериофагами, они не заражают людей или каких-либо других эукариот, будь то животные, растения или грибы.

Но некоторые эксперты обеспокоены тем, что технология может быть использована для разработки биологического оружия – болезнетворных организмов, намеренно предназначенных для нанесения вреда или убийства людей.

Джонатан Фельдман, исследователь компьютерных наук и биологии в Технологическом институте Джорджии, уверен, что “риски не приукрашиваются”.

“Мы еще далеко не готовы к миру, в котором искусственный интеллект может создать работающий вирус, – подчеркивает он в статье для The Washington Post. – Но мы должны быть такими, потому что таков мир, в котором мы сейчас живем”.  

Крейг Вентер, биолог и ведущий эксперт по геномике из Сан-Диего, признает, что у него были бы “серьезные опасения”, если бы кто-то “сделал это с оспой или сибирской язвой”.

“Одна из областей, в которой я призываю к крайней осторожности, – это любые исследования вирусного усиления, особенно когда они проводятся наугад, так что вы не знаете, что получаете”, – сказал он в интервью MIT Technology Review.

В своей статье, опубликованной в качестве предварительной версии в bioRxiv, команда Стэнфордского университета признает “важные соображения биобезопасности” и подчеркивает “гарантии, присущие нашим моделям”.

Например, они провели тесты, чтобы убедиться, что модели не смогут самостоятельно определить генетические последовательности, которые сделали бы фагов опасными для человека.

Однако Тина Эрнандес–Буссард, профессор медицины в медицинской школе Стэнфордского университета, полагает, что эти модели достаточно “умны”, чтобы преодолевать такие препятствия.

“Вы должны помнить, что эти модели созданы для обеспечения высочайшей производительности, поэтому, получив обучающие данные, они могут отменить меры предосторожности”, – сказала она.

В другом новом исследовании исследователи из Microsoft показали, что искусственный интеллект может создавать токсичные белки, которые могут обойти существующие системы проверки безопасности.

Их исследование, опубликованное в журнале Science, предупреждает, что инструменты искусственного интеллекта могут быть использованы для создания тысяч синтетических версий определенного токсина, изменяя его аминокислотную последовательность, сохраняя при этом его структуру и, возможно, его функцию.

Автор исследования, главный научный сотрудник Microsoft Эрик Хорвиц предупредил, что существует “множество способов неправильного использования искусственного интеллекта для разработки биологии”.

“Разработка белков на основе искусственного интеллекта – одна из самых захватывающих и быстроразвивающихся областей ИИ на данный момент, но такая скорость также вызывает опасения по поводу потенциального злонамеренного использования, – сказал он. – Мы ожидаем, что эти проблемы сохранятся, поэтому будет сохраняться необходимость в выявлении и устранении возникающих уязвимостей”.

Источник