Многие эксперты опасаются, что стремительное развитие искусственного интеллекта может иметь непредвиденные катастрофические последствия для человечества.
Технология машинного обучения призвана помогать людям в их повседневной жизни и обеспечивать миру открытый доступ к информации.
Однако нерегулируемый характер ИИ в его нынешнем состоянии может привести к пагубным последствиям для его пользователей и мира в целом. Читайте ниже, чтобы узнать о рисках ИИ.
Почему мы так боимся ИИ?
Появление искусственного интеллекта привело к чувству неуверенности, страха и ненависти к технологии, которую большинство людей не до конца понимает. ИИ может автоматизировать задачи, которые раньше могли выполнять только люди, такие как написание эссе, организация мероприятия и изучение другого языка. Однако эксперты опасаются, что эпоха нерегулируемых систем искусственного интеллекта может создать дезинформацию, угрозы кибербезопасности, потерю работы и политическую предвзятость.
Например, системы ИИ могут связно и быстро формулировать сложные идеи благодаря большим наборам данных и информации. Однако информация, используемая ИИ для генерации ответов, как правило, неверна из-за неспособности ИИ различать достоверные данные. Использование этих систем искусственного интеллекта в открытом доступе может способствовать дальнейшему распространению этой дезинформации в научных статьях, статьях и эссе.
Кроме того, алгоритмы, составляющие операционные возможности искусственного интеллекта, создаются людьми с определенными политическими и социальными пристрастиями. Если человечество станет полагаться на ИИ для поиска информации, то эти системы могут испортить исследования таким образом, что это принесет пользу одной стороне политического прохода. Некоторые чат-программы ИИ, такие как ChatGPT, столкнулись с обвинениями в либеральной предвзятости, отказавшись генерировать информацию о скандале с ноутбуком Хантера Байдена.
Опасен ли искусственный интеллект?
Искусственный интеллект дает человеку множество преимуществ, в том числе упрощает выполнение простых и сложных повседневных задач, а также может выступать в роли готового помощника, работающего круглосуточно и без выходных; однако у ИИ есть потенциал выйти из-под контроля. Одна из опасностей ИИ заключается в том, что корпорации или правительства могут использовать его в качестве оружия для ограничения прав общественности. Например, ИИ может использовать данные технологии восстановления лица для отслеживания местонахождения отдельных лиц и семей. Правительство Китая регулярно использует эту технологию для нападения на протестующих и тех, кто выступает против политики режима.
Более того, искусственный интеллект предлагает широкий спектр преимуществ для финансовой индустрии, консультируя инвесторов по рыночным решениям. Компании используют алгоритмы искусственного интеллекта для создания моделей, которые предсказывают будущую волатильность рынка и когда покупать или продавать акции. Однако алгоритмы не используют тот же контекст, который используют люди при принятии рыночных решений, и не понимают хрупкости повседневной экономики.
ИИ может совершать тысячи сделок в день, чтобы увеличить прибыль, но может способствовать следующему рыночному краху, отпугивая инвесторов. Финансовые учреждения должны иметь глубокое понимание алгоритмов этих программ, чтобы обеспечить наличие страховочных сетей, не позволяющих ИИ перепродавать акции.
Религиозные и политические лидеры также отмечают, как быстрое развитие технологий машинного обучения может привести к падению нравов и сделать человечество полностью зависимым от искусственного интеллекта. Такие инструменты, как ChatGPT от OpenAI, могут использоваться студентами колледжей для подделки эссе, тем самым упрощая академическую нечестность для миллионов людей. Между тем, рабочие места, которые когда-то давали людям цель и удовлетворение, а также средства к существованию, могут быть стерты в одночасье, поскольку ИИ продолжает набирать обороты в общественной жизни.
В каких ситуациях ИИ может быть опасен для человека?
Искусственный интеллект может привести к вторжению в частную жизнь, социальным манипуляциям и экономической неопределенности. Но еще один аспект, который следует учитывать, заключается в том, как быстрое повседневное использование ИИ может привести к дискриминации и социально-экономическим проблемам для миллионов людей. Технология машинного обучения собирает множество данных о пользователях, в том числе информацию, которую финансовые учреждения и государственные органы могут использовать против вас.
Типичным примером является страховая компания, повышающая ваши страховые взносы в зависимости от того, сколько раз программа ИИ отслеживала ваше использование телефона во время вождения. В сфере трудоустройства компании могут использовать программы найма ИИ, чтобы отфильтровать качества, которые они хотят видеть в кандидатах. Это может исключать цветных людей и людей с меньшими возможностями.
Самый опасный элемент, который следует учитывать при использовании искусственного интеллекта, заключается в том, что эти программы не принимают решения, основанные на том же эмоциональном или социальном контексте, что и люди. Хотя ИИ может использоваться и создаваться с добрыми намерениями, он может привести к непредвиденным опасностям дискриминации, нарушения конфиденциальности и безудержной политической предвзятости.