Почему цифровой бизнес не выживет без гиперконвергентности?

На корпоративном рынке хранения данных о гиперконвергентных системах говорят уже несколько лет, но сейчас дискуссия достигла апогея. Напрашивается сравнение с "хайпом" вокруг блокчейна на рынке криптовалюты. Как и в случае с биткоинами, гиперконвергентные системы успели обрасти мифами, сформированными под влиянием сильных лоббистов — сторонников традиционных СХД. Будучи системным интегратором, "Корус Консалтинг" понимает аргументы каждой из сторон, но снова и снова обращает внимание бизнеса на факт: гиперконвергентные системы во всем мире — это данность, игнорировать которую российским компаниям нет смысла.
 

Сегодня на рынке гиперконвергенции уже представлено более 36 вендоров. Это в том числе, признанные мировыми экспертами, такими как Gartner, лидеры. При этом ничего гениального никто из них не изобрел. Еще в 90-е годы увеличение объема данных, которые нужно было обрабатывать, ежегодно бросало вызов производителям вычислительного оборудования. Когда потребовалось получить доступ к одной и той же информации, хранящейся на нескольких компьютерах или серверах, они решили использовать решения для обеспечения общего доступа к данным, например, Novell Netware. Но вскоре такой подход исчерпал себя из-за ограничений объема хранилищ серверов и проблем с резервированием.

Возникла концепция внешней системы хранения данных — СХД. Такие хранилища оказались довольно дорогим решением из-за высокой стоимости оборудования. Тем не менее, на корпоративном рынке СХД решили важную проблему – обеспечили общий доступ к данным с возможностью их обработки. Распространение подобных решений привело к следующему "прорыву" – виртуализации и появлению частных облачных платформ, а следом, и к построению систем с новой архитектурой и повышенной отказоустойчивостью.

Лучшие практики от Google

Следующий шаг эволюции СХД спровоцировали не компании enterprise-уровня. В погоне за технологическим преимуществом, а заодно и за миллиардами долларов, именно сверхкрупные онлайн-компании начали искать новые способы для работы с данными. Интересно, что пережившие кризис "доткомов" будущие онлайн-гиганты Facebook, Google и Yahoo, действительно, пробовали использовать существующие в начале 2000-х годов СХД-решения. Поставила на них серьезно Yahoo, после чего довольно быстро проиграла технологическую гонку конкурентам. Не помогли и действия Мариссы Майер, занявшей в 2011 г. пост CEO Yahoo после многолетней работы в Google. Первая же авария после ее прихода произошла как раз из-за отказа СХД традиционной архитектуры. Эффективные на тот момент решения для компаний enterprise-уровня не подходили для онлайн-гигантов.

Осознав это, в Google начали придумывать свои технологии для обработки гигантских объемов данных. Ставка была сделана не на железо, а на интеллектуальное ПО, которое способно объединить множество ресурсов и создать единое мегахранилище информации. Каждый сервер стал частью единой структуры, объединенной с помощью ПО. При этом в каждом сервере есть вычислительные ресурсы, оперативная память, диски — то есть все функции как традиционных серверов, так и СХД.

От big data к data lake

2014 год – переломный сразу для многих рынков. Эксперты заговорили даже не о больших данных (big data), но об "озерах" данных (data lake) — огромном объеме сырых данных в их первоначальном формате, которые поступают в хранилища из всевозможных источников, будь то носимый гаджет, лог или email. Объемы таких данных, ежегодно увеличиваются в геометрической прогрессии.

Традиционные архитектуры с применением СХД не могут справиться с их обработкой. Так бизнес столкнулся с проблемами Google десятилетней давности. Но в 2014 г. выяснилось, что велосипед уже изобрели: выходцы из того же Google и ряда других знаменитых онлайн-бизнесов в 2009 г. основали компанию Nutanix и через два года публично представили первую гиперконвергентную платформу, ставшую лидером на рынке.

Как ни странно, гиперконвергентность бывает разная. На наш взгляд, одно из важных преимуществ таких решений — это ориентация системы на Web Scale IT. Лимита роста у такой веб-масштабируемой архитектуры нет. Это обусловлено тем, что разработчики таких систем изначально были сфокусированы на решении задач онлайн-бизнеса с его сумасшедшими темпами развития и гигантскими объемами данных. Но при этом выяснилось, что те же подходы прекрасно работают для задач корпоративных клиентов. В основе Web Scale IT подхода лежит понимание того, что любой аппаратный компонент может отказать в любой момент, но это не только не приводит к отказам сервиса, но его можно с легкостью заменить, не вызвав при этом простой бизнеса и не привлекая команду дорогостоящих инженеров.

А что у нас?

Итак, раз гиперконвергентные системы так удобны и эффективны, почему их не использует каждая компания enterprise-уровня? На самом деле, используют: более половины крупнейших мировых компаний из списка "Forbes Global 100" уже применяют гиперконвергентные решения, но речь идет не о российских компаниях.

Причина проста. Сказывается как традиционное технологическое отставание компаний на российском рынке, так и довольно сильное влияние сторонников традиционных СХД как внутри компаний, так и вне. Речь идет о том, что появление гиперконвергентных решений поставило под сомнение многомиллиардный рынок СХД с дорогим оборудованием, техническими обслуживаниями, сменами версий ПО, прошивок и т.п. Положение стало рискованным не только для производителей этих систем, но и для огромного рынка услуг, который держится на контрактах по внедрению СХД, аутсорсинге технической поддержки и консалтинге. Не стоит забывать и про штат инженеров по СХД внутри компаний, которые всегда были высокооплачиваемыми специалистами.

А теперь их услуги вдруг стали не востребованными, потому что настраивать и поддерживать нечего. Например, в ЦОДах Google или Facebook на каждые 10 тыс. – 20 тыс. серверов выделено лишь несколько инженеров. Вышедшие из строя модули просто заменяют на новые без какой-то сложной и многоуровневой интеграции и настройки.

Подобные барьеры, обусловленные, по сути, боязнью новых технологий и их влияния, провоцируют появление мифов и слухов, которые на деле легко развенчать. Один из главных – дороговизна гиперконвергентных решений. Но если посчитать стоимость обслуживания традиционного решения, а также стоимость простоя бизнеса в случае аварии СХД, зарплаты инженеров в штате или на аутсорсе, то выяснится, что гиперконвергентное решение дешевле. Например, исследование IDC свидетельствует о более чем 50%-ом снижении затрат. Более того, оно долговечнее из-за отсутствия привязки к амортизации оборудования. А если говорить о действительно крупных проектах, то стоимость реализации гиперконергентной системы будет дешевле даже на старте.

Что дальше?

Пока консервативный российский рынок пытается осмыслить подход гиперконвергентных систем, американские технологические лидеры уже идут дальше. Гиперконвергентная платформа – это фундамент для мультиоблачной инфраструктуры. Анонсированные летом 2017 г. решения позволят объединить публичные и частные облака в рамках общей архитектуры гибридных облачных вычислений. А это значит, что архитектура и подходы уровня Amazon станут доступны любой компании.


 

Вернуться в «Публикации»

Связаться с нами

По электронной почте: itservice@korusconsulting.ru
По телефону:
+7 (495) 230-01-45,
+7 (812) 324-24-57