×
🏠 Главная 📃 О нас

Эксперты выразили новое опасение по поводу искусственного интеллекта

Дело касается мировых эпидемий.

Should we fear artificial intelligence? Connor Leahy touches on human skepticism of AI

Эксперты, изучающие достижения в области искусственного интеллекта, теперь предупреждают, что модели ИИ могут создать следующие «усовершенствованные патогены, способные вызвать крупные эпидемии или даже пандемии». 

Заявление было сделано в статье, опубликованной в журнале Science соавторами из Университета Джонса Хопкинса, Стэнфордского университета и Фордхэмского университета, которые говорят, что модели ИИ «обучаются или [способны] осмысленно манипулировать значительными величинами». биологических данных, от ускорения разработки лекарств и вакцин до повышения урожайности». 

«Но, как и в случае с любой новой мощной технологией, такие биологические модели также будут представлять значительные риски. Из-за их универсального характера та же самая биологическая модель, способная создать доброкачественный вирусный вектор для доставки генной терапии, может быть использована для разработки более патогенный вирус, способный уклоняться от иммунитета, вызванного вакциной», — пишут исследователи в своем аннотации. 

«Добровольные обязательства разработчиков по оценке потенциально опасных возможностей биологических моделей значимы и важны, но не могут быть самостоятельными», — говорится в документе. «Мы предлагаем, чтобы национальные правительства, включая Соединенные Штаты, приняли законы и установили обязательные правила, которые не позволят передовым биологическим моделям существенно способствовать крупномасштабным опасностям, таким как создание новых или усовершенствованных патогенов, способных вызвать крупные эпидемии или даже пандемии. ." 

 

People stand in line in Washington, D.C. to receive a coronavirus test

Хотя сегодняшние модели искусственного интеллекта, скорее всего, не «существенно способствуют» биологическим рискам, «необходимые ингредиенты для создания весьма важных передовых биологических моделей могут уже существовать или скоро будут», цитирует Time авторов статьи. 

Сообщается, что они рекомендуют правительствам создать «батарею тестов», которые должны пройти биологические модели ИИ, прежде чем они будут опубликованы для общественности – и тогда чиновники смогут определить, насколько должен быть ограничен доступ к моделям. 

«Нам нужно планировать сейчас», — заявила Анита Цицерон, заместитель директора Центра безопасности здоровья Джонса Хопкинса и один из соавторов статьи. «Некоторый структурированный государственный надзор и требования будут необходимы, чтобы снизить риски, связанные с особенно мощными инструментами в будущем». 

Цицерон, как сообщается, добавил, что биологические риски, связанные с моделями ИИ, могут стать реальностью «в течение следующих 20 лет, а может быть, даже гораздо меньше» без надлежащего надзора. 

 

COVID variant

«Если вопрос в том, можно ли использовать ИИ для создания пандемий, то это 100% процентов. А что касается того, насколько далеко в будущем нам следует беспокоиться об этом, я думаю, что ИИ развивается со скоростью, люди к этому не готовы», — сказал Fox News Digital Пол Пауэрс, эксперт по искусственному интеллекту и генеральный директор Physna — компании, которая помогает компьютерам анализировать 3D-модели и геометрические объекты. 

«Дело в том, что не только правительства и крупный бизнес имеют доступ к этим все более мощным возможностям, но также частные лица и малый бизнес», - продолжил он, но отметил, что «проблема с регулированием здесь заключается в том, что Как бы всем ни хотелось глобального набора правил для этого, реальность такова, что они применяются на национальном уровне. Во-вторых, регулирование не движется со скоростью ИИ. Регулирование даже не может идти в ногу с технологиями, как это было раньше. традиционная скорость». 

«Они предлагают вам добиться, чтобы правительство одобрило определенные модели обучения ИИ и определенные приложения ИИ. Но на самом деле, как вы это контролируете?» - сказал Пауэрс. 

kid getting vaccinated

 

«Существуют определенные нуклеиновые кислоты, которые, по сути, являются строительными блоками для любого потенциального реального патогена или вируса», — добавил Пауэрс, сказав: «Я бы начал с этого… Я бы начал с реальных попыток расправиться с кто первым сможет получить доступ к строительным блокам». 

Грег Норман — репортер Fox News Digital.


Новости партнеров