VLA™

VLA™ — это аббревиатура от «Virtual Learning Appliance». Это торговое название нашей технологии машинного обучения, лежащей в основе наиболее продвинутых фильтров трафика в Adspect. Если говорить упрощенно, то это математическая машина, т.н. модель, которая проверяет входящий трафик и сама находит подозрительные повторяющиеся последовательности среди тысяч фактов в машинных отпечатках посетителей. По этим признакам она определяет модераторов, кликфрод и прочую злонамеренную активность. VLA находится в постоянном цикле самообучения, развиваясь и адаптируясь к новым угрозам по мере их появления. VLA является нашим самым мощным оружием в гонке вооружений партнерского маркетинга, так как может распознавать цели далеко за рамками тех проверок, которые мы изначально заложили. То, что человек-аналитик может упустить, никогда не ускользнет от математически точного анализа запрограммированной машины.

Принцип работы машинного обучения можно проиллюстрировать следующей аналогией. Представьте полицейского в аэропорту, которого проинструктировали задерживать всех пассажиров с определенной татуировкой, так как известно, что носящие эту татуировку принадлежат к опасной банде. За последний месяц полицейский задержал десять человек с татуировкой и заметил, что все они также были одеты в футболки с таким же символом. Он сделал выводы и теперь будет также останавливать других пассажиров в таких футболках вне зависимости от того, есть у них татуировка или нет.

В то время, как наши обычные проверки отпечатков дают очень близкую к 100% точность определения нежелательных посетителей, VLA является по своей природе вероятностной системой. Реальная ценность VLA в том, что стандартные проверки охватывают лишь заранее известные нам типы угроз, но VLA обнаруживает новые, ранее не известные нам образцы. Система получает на вход отпечаток, анализирует каждый факт в его составе и выдает процент уверенности в его опасности, как будто говоря: «я на 97% уверена в том, что это отпечаток опасного посетителя, и тебе лучше отфильтровать его!»

Остается лишь определить, какой процент уверенности является достаточно высоким, чтобы фильтровать. В этом вопросе решение принимаете вы. В настройках каждого потока есть параметр «Точность VLA», который предназначен как раз для этого: вы выбираете минимально необходимую уверенность VLA, при которой посетитель будет отфильтрован на белую страницу. Например, если вы указали точность в 95%, то VLA отфильтрует всех тех посетителей, в чьей опасности она уверена на 95% и более. Те же, в ком VLA сомневается меньше, будут пропущены на контент (при отсутствии других признаков опасности). Этот единственный параметр точности позволяет вам тонко настроить систему в соответствии с вашим личным пониманием того, что значит «достаточная уверенность». Наши тесты показали, что 95% — хорошее начальное значение для точности VLA.