В прошлом году группа безопасности Microsoft Corp. Azure обнаружила подозрительную активность в использовании облачных вычислений крупным ритейлером: один из администраторов компании, который обычно входит в систему из Нью-Йорка, пытался получить доступ из Румынии. И нет, админ не был в отпуске. Хакер взломал

Microsoft быстро предупредила своих клиентов, и атака была сорвана еще до того, как злоумышленник зашел слишком далеко.

Попробуйте новое поколение искусственно интеллектуального программного обеспечения, которое адаптируется к постоянно развивающейся тактике хакеров. Microsoft, Alphabet Inc., Google, Amazon.com Inc. и различные стартапы отказываются от использования исключительно старой «основанной на правилах» технологии, разработанной для реагирования на определенные виды вторжений, и применяют алгоритмы машинного обучения, которые обрабатывают огромные объемы данных. на логинах, поведении и предыдущих атаках, чтобы разыскать и остановить хакеров.

«Машинное обучение является очень мощным методом обеспечения безопасности — оно динамическое, а системы, основанные на правилах, очень жесткие», — говорит Доун Сонг, профессор Калифорнийского университета в исследовательской лаборатории искусственного интеллекта в Беркли. «Это очень трудоемкий процесс их изменения, в то время как машинное обучение автоматизировано, динамично, и вы можете легко переучить его».

Конечно, хакеры сами по себе отлично адаптируются, поэтому они тоже могут использовать машинное обучение, чтобы создавать новые неприятности и подавлять новую защиту. Например, они могли бы выяснить, как компании обучают свои системы и используют данные, чтобы уклониться или испортить алгоритмы. Крупные компании, предоставляющие облачные сервисы, до боли осознают, что противник является движущейся мишенью, но утверждают, что новая технология поможет изменить баланс в пользу хороших парней.

«Мы увидим улучшенную способность выявлять угрозы на более раннем этапе цикла атаки и, таким образом, сократить общий объем ущерба и быстрее восстановить системы до желаемого состояния», — говорит главный специалист по информационной безопасности Amazon Стивен Шмидт. Он признает, что невозможно остановить все вторжения, но говорит, что его отрасль будет «все лучше и лучше защищать системы и усложнять ее для злоумышленников».

До машинного обучения команды безопасности использовали более грубые инструменты. Например, если кто-то из штаб-квартиры попытался войти в систему из незнакомого региона, ему запретили вход. Или спам-сообщения с различными орфографическими ошибками слова «Виагра» были заблокированы. Такие системы часто работают.

Но они также помечают множество законных пользователей, поскольку любой, кто не может использовать свою кредитную карту в отпуске, знает об этом. По словам главного технолога Azure Марка Руссиновича, в системе Microsoft, разработанной для защиты клиентов от поддельных входов в систему, уровень ложных срабатываний составляет 2,8%. Это может показаться не так много, но было сочтено неприемлемым, поскольку крупные клиенты Microsoft могут генерировать миллиарды логинов.

Чтобы лучше понять, кто является законным, а кто нет, технология Microsoft учитывает данные каждой компании, использующей ее, настраивая безопасность в соответствии с типичным поведением и историей этого клиента в Интернете. С момента развертывания сервиса компании удалось снизить процент ложных срабатываний до 0,001 процента. Это система, которая уничтожила нарушителя в Румынии.

Обучение этим алгоритмам безопасности ложится на таких людей, как Рам Шанкар Шива Кумар, менеджер Microsoft, носящий название Data Cowboy. Шива Кумар присоединился к Microsoft шесть лет назад из Карнеги-Меллона после того, как принял интервью во втором туре, потому что его сестра была фанатом «Анатомии Грея», медицинской драмы, поставленной в Сиэтле. Он руководит командой из 18 инженеров, которые разрабатывают алгоритмы машинного обучения, а затем проверяют, достаточно ли они умны и быстры, чтобы помешать хакерам и беспрепятственно работать с программными системами компаний, которые платят большие деньги за облачные сервисы Microsoft.

Шива Кумар, он же Data КовбойШива Кумар, он же Data Ковбой

Шива Кумар — один из тех, кто получает вызов, когда алгоритмы обнаруживают атаку. Он проснулся среди ночи только для того, чтобы обнаружить, что ответственность за это взяла на себя «красная команда» хакеров Microsoft. (Они купили ему торт, чтобы компенсировать потерянный сон.

Задача огромна. Миллионы людей заходят в Gmail Google каждый день в одиночку. « Объем данных, на который мы должны обратить внимание, чтобы убедиться, что это вы или самозванец, растет со скоростью, которая слишком велика для того, чтобы люди могли писать правила одно за другим», — говорит Марк Ришер, директор по управлению продуктами, который помогает предотвратить атаки на клиентов Google.

Google теперь проверяет наличие нарушений безопасности даже после того, как пользователь вошел в систему, что очень удобно для хакеров, которые изначально выглядят как настоящие пользователи. Благодаря машинному обучению, способному анализировать множество различных фрагментов данных, перехват несанкционированных входов в систему больше не является вопросом единственного да или нет. Скорее, Google отслеживает различные аспекты поведения в течение сеанса пользователя. Кто-то, кто изначально выглядит законным, может позже показать признаки того, что он не тот, кем себя называют, что позволяет программному обеспечению Google загружать их достаточно времени, чтобы предотвратить дальнейший ущерб.

Помимо использования машинного обучения для защиты собственных сетей и облачных сервисов, Amazon и Microsoft предоставляют эту технологию клиентам. Сервис Amazon Macie использует машинное обучение для поиска конфиденциальных данных среди корпоративной информации от таких клиентов, как Netflix, а затем отслеживает, кто и когда получает к ней доступ, оповещая компанию о подозрительной активности. Amazon’s GuardDuty отслеживает системы клиентов на предмет злонамеренных или несанкционированных действий. Во многих случаях служба обнаруживает, что сотрудники делают то, что им не следует делать, например, добывают биткойны на работе.

Голландская страховая компания NN Group NV использует расширенную защиту от угроз Microsoft для управления доступом к своим 27 000 сотрудников и близких партнеров, не допуская при этом никого. Ранее в этом году Уилко Янсен, менеджер компании по обслуживанию рабочих мест, продемонстрировал сотрудникам новую функцию облачного программного обеспечения Microsoft Office, которая блокирует так называемый CxO-спам, благодаря чему спамеры выступают в роли старшего руководителя и инструктируют получателя переводить средства или делиться личной информацией. ,

Через девяносто минут после демонстрации в центр безопасности позвонили, чтобы сообщить, что кто-то пытался совершить именно такую ​​атаку на генерального директора NN Group. «Мы говорили:« О, эта функция уже могла предотвратить это », — говорит Янсен. «Мы должны быть в состоянии постоянной готовности, и эти инструменты помогают нам видеть вещи, за которыми мы не можем следить вручную».

Системы безопасности машинного обучения работают не во всех случаях, особенно когда данных недостаточно для их обучения. А исследователи и компании постоянно беспокоятся о том, что они могут быть использованы хакерами.

Например, они могут имитировать активность пользователей, чтобы помешать алгоритмам, которые проверяют типичное поведение. Или хакеры могут подделать данные, используемые для обучения алгоритмов, и исказить их для своих собственных целей — так называемое отравление. Вот почему так важно, чтобы компании держали свои алгоритмические критерии в секрете и регулярно меняли формулы, говорит Баттиста Биджио, профессор Лаборатории распознавания образов и прикладных программ Университета Кальяри в Сардинии, Италия.

Пока что эти угрозы фигурируют в научных статьях больше, чем в реальной жизни. Но это, вероятно, изменится. Как писал в прошлом году в своем отчете Биггио: «Безопасность — это гонка вооружений, и безопасность систем машинного обучения и распознавания образов не является исключением».