Нужна ли сегодня капча? ИИ уже проходит ее быстрее человека
Я не робот.
Современные технологии ИИ ставят под сомнение эффективность традиционных методов защиты от ботов в интернете. Тесты капчи, разработанные для того, чтобы отличить людей от машин, больше не справляются со своей задачей, как утверждает издание The Conversation. Сегодня эти тесты скорее головная боль для человека, а не для машин.
«Полностью автоматизированный публичный тест Тьюринга для различения компьютеров и людей», он же капча, появившаяся в начале 2000-х годов, была изобретена учеными из Университета Карнеги-Меллон. Изначально эта технология была создана для защиты сайтов от ботов. Они создавали поддельные аккаунты или, например, скупали билеты на мероприятия для перепродажи и просто распространяли спам.
В общем, принцип работы был довольно простым: юзеру нужно выполнить легкое задание для него, но сложное для машины. Первая версия капчи требовала ввода букв и цифр. А в 2007 году появилась ReCaptcha, которая усложнила задачу, добавив к ней слова.
В 2014 году Google представила ReCaptcha v2, которая до сих пор остается самой популярной, и вы ее точно встречали. В этой версии пользователям предлагается либо поставить галочку «Я не робот», либо выбрать правильные изображения (светофоры, велосипеды, автобусы, пешеходные переходы).
Дальше не пройдете.
Капча развивала ИИ
Капча способствовала развитию искусственного интеллекта. Согласно статье «CAPTCHA: использование сложных задач искусственного интеллекта для обеспечения безопасности» Ан, Блюма и Лэнгфорда, «любая программа, которая успешно справляется с CAPTCHA, может быть использована для решения сложной, нерешенной задачи ИИ. У CAPTCHA множество применений». И правда, с 2014 года Google при помощи reCaptcha приступил к обучению ИИ.
Когда пользователи распознают и вводят искаженные символы в капче, они не догадываются, что выполняют неосознанную работу: транскрибируют тексты для Google. Система демонстрирует один и тот же контент множеству пользователей по всему миру и автоматически проверяет и сравнивает результаты.
Нажатия на размытые изображения также способствовали распознаванию объектов, с которыми ранее не могли справиться алгоритмы искусственного интеллекта. По сути, пользователи сортировали и уточняли изображения, что и помогло обучить ИИ Google.
Однако этот процесс был взаимовыгодным. Благодаря таким механизмам Google удалось улучшить результаты поиска как в поисковой системе Google, так и в Google Maps.
ИИ перерос систему
Современные ИИ, прокаченные этими же людьми, научились без проблем обходить капчу. Технологии компьютерного зрения и обработки языка позволяют машинам легко считывать искаженный текст и распознавать объекты на изображениях. Такие инструменты, как Google Vision и OpenAI Clip, решают эти задачи за доли секунды, в то время как человеку для этого требуется гораздо больше времени.
И это уже вызывает проблемы в реальной жизни. Боты используются для скупки билетов на спортивные матчи или для массового бронирования мест, что делает покупку билетов для обычных пользователей недоступной. Например, в Великобритании боты массово резервировали места на экзамены по вождению, а затем перепродавали их с большой наценкой.
Электросамокатчик по версии фильма «Терминатор: Да придет спаситель».
Новый этап борьбы с ботами
Тем не менее, разработчики пытаются найти новый подход в решении проблемы. В 2018 году Google представила ReCaptcha v3 – систему, которая не требует от пользователей решать головоломки. Она анализирует их поведение на сайте – скорость набора текста, движения курсора и прочие «человеческие» признаки. ИИ еще не научился имитировать все модели поведения.
Однако подобные методы сразу вызвали вопросы и подверглись критике. В первую очередь страдает конфиденциальность данных, так как необходим сбор информации о пользователе. Например, некоторые сайты уже начали использовать биометрические данные для проверки пользователей, такие как отпечатки пальцев, голосовые команды или идентификацию по лицу. Конечно, боту сложнее подделать такие данные, но у данного метода есть и другие недостатки, помимо конфиденциальности. Например, проблемы с безопасностью, дорогостоящие технологии и ограниченный доступ для некоторых пользователей, которые не купили себе подходящий смартфон или не могут говорить из-за инвалидности.
А появление ИИ-агентов, которые будут «помогать» пользователю и решать задачи от его лица, неизбежно приведет к новым проблемам. В будущем сайтам будет необходимо различать «хороших» ботов от «плохих». Одним из возможных решений может стать внедрение цифровых сертификатов для аутентификации. Однако в настоящее время они находятся на стадии разработки.
В общем, борьба между армией ботов и системами защиты продолжается. Капча перестала быть надежным инструментом и потеряла свою эффективность, но разработчики уже думают над новыми способами защиты. И эта задача не из легких.
Каким бы ни был следующий технологический стандарт капчи, он должен быть удобным для пользователей и на шаг опережать возможности машин.
***
ИИ подвержен возрастной деменции? Ученые проверили чат-ботов на сообразительность
ИИ-модель Google создает 3D-игры из текста. Геймдев напрягся