Latency (задержка) — это то самое время между тем, как пользователь отправил запрос, и тем, как сервер наконец‑то ответил. Измеряется всё это в миллисекундах и обычно не бросается в глаза на графиках, пока не начнёт мешать жить. Но именно latency очень сильно влияет на то, как человек ощущает “скорость” любого онлайн-сервиса.
Зависимость здесь простая: чем меньше задержка, тем быстрее отклик. Для обычного просмотра страниц разница в десяток миллисекунд можно и не заметить. Но в онлайновых играх, видеоконференциях, сделках в реальном времени или удалённой работе каждая лишняя миллисекунда начинает раздражать. Высокая latency делает соединение вязким, “тормозным”, хотя формально канал может быть широким.
Причин, по которым растёт задержка, хватает:
– большое расстояние между пользователем и сервером;
– перегруженные магистральные сети;
– неоптимальные маршруты следования пакетов;
– забитый DNS или медленный прокси;
– отсутствие нормальной CDN, которая могла бы раздавать контент ближе к человеку.
Для проектов, работающих сразу на несколько стран или континентов, latency становится одной из ключевых метрик. Поэтому крупные компании и разворачивают по миру распределённые PoP-узлы в составе CDN — чтобы запросы не летели “через полпланеты”, а обрабатывались на ближайшем доступном сервере.
В хостинге и облаке борьба с задержками — это отдельное направление работы: следят за маршрутами, выбирают современные протоколы, настраивают серверы, разводят инфраструктуру по разным дата-центрам. Всё это делается ради того, чтобы реальные пользователи видели минимум задержки при каждом клике.
Иногда бывает так: по измерениям “сайт вроде норм”, а субъективно ощущается медленным. Очень часто корень проблемы именно в высокой latency. Пользователь пару секунд ждёт, нервничает и просто закрывает вкладку. В условиях конкуренции эти самые миллисекунды неожиданно превращаются в очень прикладочное преимущество — либо у вас, либо у соседнего сервиса, который откликается чуть быстрее.
