vk_logo twitter_logo facebook_logo googleplus_logo youtube_logo telegram_logo telegram_logo

Онлайн-видео: по ту сторону экосистемы

Дата публикации: 11.12.2013
Количество просмотров: 3907

В свое время Всемирная паутина, Word Wide Web (WWW) Тима Бернерса-Ли и Роберта Кайо, сегодня знакомая, вероятно, каждому, стала этаким killer-приложением для интернета. То было доброе время. Каналы еще не были «толстыми», страницы сайтов стремились сделать меньше, чтобы они грузились быстрее, а за сообщение электронной почты с вложением на пару мегабайт могли, если не сразу «в морду дать», то уж проклянуть на долгое время точно. Развитие сетей широкополосного доступа подогрело аппетиты пользователей. Сегодня одежку killer-приложения примеряет на себя онлайн-видео. Все чаще «движущиеся картинки», начало которым положило прибытие поезда на вокзал Ла-Сьота, приходят на большой экран телевизора в гостиной поверх интернет (over the top, OTT), не говоря уже о ноутбуке или планшете.

Россия, несмотря на пристрастие нашего пользователя к бесплатному потреблению кино и торрентам, здесь совсем не исключение. В 2012 году объем рынка OTT составил у нас 1,1 млрд. рублей и вырос, по отношению к 2011 году, сразу на 95%. По нынешним временам для рынка телекома это недосягаемый темп роста. На ближайшие годы ОТТ у нас, по данным Директ.Инфо, ожидает не менее бурный рост. К 2016 году объем этого рынка вырастет, в сопоставлении с 2012 годом, в 13 раз, до 14,8 млрд. рублей. Несмотря на то, что с 60 млн. зрителей Россия (по данным Comscore на июль 2013 года) и так является крупнейшим рынком Европы по аудитории онлайн-видео – куда двигаться дальше, у нас пока есть. Рост проникновения широкополосного доступа добавит OTT-сервисам зрителей, а по аналогии с другими странами, у нас еще есть значительный потенциал по количеству и длительности времени просмотра видео на каждого пользователя. Если в 2012 году на SmartTV пришлось 8% рынка, то в 2016 году ожидается уже все 32%.

Все это, несомненно, будет, и сегодня уже стало отражаться на сетях российских операторов. Чего в итоге ждать сетям связи далее – всем понятно: им стоит готовиться к потопу одноадресных (unicast) видео-потоков, чтобы обслужить своих пользователей дешевле и дать им, пользователям, больше зрелищ, то есть видео.


Be prepared for the unicast flood!, Bell Labs Video Traffic Study

Здесь интересно заглянуть под обратную сторону этой медали, туда, где находится контентный (он же ОТТ) сервис, который обеспечивает трансляцию онлайн-видео:

Во-первых, мало кто из зрителей отзовется добрым словом, когда на голевом моменте футбольного матча нападающий, уже занеся ногу для удара, вдруг начнет «подтормаживать», «дергаться как пьяный», а затем и вообще, либо «рассыплется» на экране телевизора вместе со всей картинкой, либо застынет на стоп-кадре. Качество онлайн-видео прямо зависит от состояния сети на всем пути передачи, от источника трансляции до, условно, уткнувшегося в экран зрителя. Помимо доступной полосы пропускания здесь имеет большое значение сама задержка, ее вариации (джиттер), а также потери пакетов. Тем более, если потери эти выпадают на ключевые кадры видео-потока, которые дают начало для серии последующих. В интернете же, при передаче видео, в полной мере проявляется непредсказуемая природа «сети сетей», - или, говоря словами персонажа замечательного фильма «Москва слезам не верит», - «стабильности нет».

Во-вторых, для доставки онлайн-видео в дом к пользователю требуется в сотни раз больше пропускная способность, чем для электронной почты или веб-серфинга по текстовым сайтам с небольшими, сравнительно к видео, графическими элементами. Оплата за пропуск трафика для доставки онлайн-видео через интернет до зрителя является существенной статьей затрат в бюджете крупного контент-провайдера, поэтому он стремится ее минимизировать. Что будет завтра, когда от трансляции онлайн-видео в Full HD (1080p) качестве, российские сервисы, идя на поводу взыскательного пользователя, дадут ему картинку 4K UHDTV (2160p)? А там глядишь, не успеешь и глазом моргнуть, как подойдет очередь следующей итерации. Каждый шаг вперед здесь увеличивает полосу, отдаваемую под видео. Если верить Cisco, уже в прошлом году доля онлайн-видео в общем объеме трафика (по данным для России) заняла 44%, а к 2017 году она еще возрастет до 73%, это притом, что в целом предполагается рост трафика за это время в три раза.

В-третьих, профиль трафика онлайн-видео сильно асимметричен. Данные передаются от контента к пользователю, а обратно трафика идет очень мало. При трансляции видео соотношение на up/down-линке для сервиса составляет не редко даже больше, чем 30 к 1.

В-четвертых, профиль трафика онлайн-видео в значительной мере зависит, говоря привычными для телевидения терминами, от прайм-тайма, а также сильно подвержен событийному влиянию, будь то выход нового блокбастера Голливуда, спортивное мероприятие, как пример Олимпийские игры, или какое-либо иное событие, затрагивающее широкие массы пользователей. Для онлайн-видео требуется резерв свободной полосы, чтобы отдать «выплеснувшийся» к пользователям трафик в часы наибольшей нагрузки. Это ведет к увеличению разрыва между пиковой и средней загрузкой портов сети распределения контента, что явно отражается на их утилизации.  


Интернет-трафик после первого раунда матчей Евро-2012, RIPE Labs

В итоге, онлайн-видео требует большой пропускной способности с низкой ценой пропуска трафика, чтобы затраты на трансляцию не съели все доходы от нее, хорошей связностью, чтобы у пользователя не пропало желание смотреть, а также резко ассиметричным распределением трафика и явно выделенными пиками в часы наибольшей нагрузки. В общем, надо много, дешево, качественно и с запасом. Совсем как в старом анекдоте из времен, когда наша страна занимала 1/6 часть суши, - «…и чтобы был умный, честный и партийный! – Невозможно, выберите любые два!». Для онлайн-видео также, пренебрежение чем-либо одним, может не очень хорошо отозваться на будущем сервиса. Есть такой наглядный факт: на десятой секунде ожидания загрузки видео 45.8% зрителей отказались от его просмотра, в то время как не смогли дождаться окончания рекламы той же длительности, чтобы начать просмотр видео, только 13.4% пользователей. Как видно, зрители более терпимы даже к навязчивой рекламе, чем готовы ожидать загрузку видео.


Understanding the Effectiveness of Video Ads: A Measurement Study

Впрочем, решение для онлайн-видео, как одним ходом «убить несколько зайцев», - все-таки есть, - стоит только разместить контент как можно ближе к пользователям, в идеале, условно, на расстоянии одного AS-PATH и пары миллисекунд от него. В этом случае наиболее популярный видео-контент загружается на разнесенные по сети кэшируюшие сервера, откуда потом, определив по ряду параметров, таких как топология сети, сетевые метрики (задержки и потери), распределение нагрузки, стоимость пропуска трафика и т.д., наиболее «удобный» к пользователю сервер, производится трансляция онлайн-видео. Есть несколько вариантов, как можно отдавать трафик: на публичную точку обмена, через местную сеть доступа или узел магистрального оператора, а то и задействовав сразу несколько или все доступные для сервиса возможности.

К примеру, в Ростове онлайн-кинотеатр ivi.ru, помимо присутствия на роут-сервере локального аикса (RND-IX), часть связности «добирает» через прямые стыки с магистральными сетями ЭР-Телекома (AS9049) и МТС (AS8359). Так, трансляцию онлайн-видео для крупной сети доступа Ростелекома в Краснодарском крае (AS25490) этот сервис отдавал (на 16.11.2013) со своего узла в Ростове на стык с AS8359 транзитом затем через магистраль Ростелекома (AS12389). Задержка на этом маршруте при наличии петли до Москвы, где трафик с AS8359 передается на AS12389, составляет порядка 30 мс, что учитывая задержку с узла CDN-сети ivi.ru в Москве до Краснодара на треть меньшую, выглядит немного нелогично. Правда, нельзя забывать, что для определения «удобного» для пользователя сервера в CDN-сети, логика выбора оптимального маршрута согласно BGP и сетевые метрики, это лишь часть общего алгоритма.


Результат вывода запроса bgp summary для узла rnd.cdn.ivi.ru на 16.11.2013, noc.ivi.ru/lg

В конце концов, в интернете каждая участвующая во взаимодействии сеть имеет свои эгоистичные интересы, которые она старается удовлетворить за счет другой. Стремление контента, в частности сервисов для онлайн-видео, стать ближе к своим пользователям, безусловно, меняет и усложняет эту систему взаимоотношений. Та же сеть доступа может получать трафик с аикса, в том числе и онлайн-видео, неся затраты только на каналы до точки включения и услуги по пирингу. Или в иной модели аикса, говоря словами Google, «контент-ориентированной», вдобавок оплачивая в составе услуг пиринга (внимание на DataIX или как правило другие облачные или распределенные «аиксы»), еще и затраты на доставку до себя трафика для присутствующих на точке обмена контентных сервисов.

В другом варианте сеть доступа, предоставляя место для размещения оборудования и свою связность для наполнения кэша крупного сервиса онлайн-видео или CDN-оператора, может экономить полосу на аплинках. Ярким примером такого взаимодействия является Google Global Cache (GGC). Даже не в лучшем случае, при эффекте кэширования 1/5 (вход/выход на кэше), если доля YouTube (Google) в сети оператора составляет 15%, на аплинке таким образом условно «экономится» 12% полосы. Для каждой десятки (10G) IP-транзита в том же Краснодаре это экономия выльется в итоге в приличную сумму. На длительных формах видео, как кино или сериалы, эффект от кэширования будет еще сильнее, чем от живущих на YouTube коротких форм. В CDN-сети одного крупного российского онлайн-кинотеатра этот показатель составляет до 1/30.

На самом деле, вариантов взаимодействия гораздо больше, чем два, или даже три. Поставив у себя кэш популярного сервиса онлайн-видео, можно постараться продать трафик с него своим коллегам. Или, наоборот, при перекосе входящего трафика на аплинке, что не совсем уж редкость для региональных операторов или операторов, работающих на корпоративном рынке, можно незадействованную полосу на исходящем направлении продать напрямую размещенному в регионе контентному сервису. Через аплинка сети доступа сервис в этом случае получает короткую связность со стоящим за ним, аплинком, клиентским конусом из местных, а при необходимости и не только, операторов. А какое богатство выбора появляется, стоит только «ввести» в схему взаимодействия магистральные сети, … особенно глядя, как многие из них, имеется в виду наших, российских, обзавелись, или думают обзавестись собственной CDN-сетью?

Здесь надо только хорошо понимать. Движение контента ближе к краю сети, где находятся его пользователи, это не прихоть, не данность и не желание лишь помочь операторам снизить их затраты на IP-транзит. Для контентного сервиса, особенно в аспекте онлайн-видео, – это обыкновенная жизненная потребность. Как и на каких условиях строить свои взаимоотношения в изменившемся мире, где на трафик онлайн-видео через некоторое время будет приходиться две трети, каждая участвующая во взаимодействии сторона вольна решать сама, находя для себя среди многих интересов тот вариант, который ей более предпочтителен. Главное, чтобы при всем многообразии – идя от противного в рекламе первой в Советском союзе биржы «Алисы» - выбор был всегда! Ведь в чем бесспорно сильная сторона интернет – так это в его гибкости, - в том числе и то, каким образом передается трафик между сетями.


Фрагмент вывода запроса show route protocol megalink bgpmap (на 15.11.2013) на Looking glass точки обмена трафиком Sea-IX

 

---------------------------------------
По мотивам статьи Why IXPs are even more important now, ask dr.Peering

От редакции: если у вас есть чем поделиться с коллегами по отрасли, приглашаем к сотрудничеству
Ссылка на материал, для размещения на сторонних ресурсах
/articles/article/24301/onlayn-video-po-tu-storonu-ekosistemyi.html

Обсудить на форуме

Оставлять комментарии могут только зарегистрированные пользователи

Зарегистрироваться