Имеют ли облака свой локальный момент (часть 2)
Контейнеры освободят вас
Макс Хорстманн, бывший штатный инженер-программист в Stack Overflow, а теперь главный инженер-программист службы Azure Kubernetes (AKS), подробно рассказал о том, почему Kubernetes может быть хорошим выбором.«Если вы начинаете новый проект с нуля — новое приложение, сервис или веб-сайт — ваша главная задача обычно не в том, как управлять им в веб-масштабе с высокой доступностью», — пишет Хорстманн. «Следовательно, когда дело доходит до выбора правильного набора технологий, Kubernetes, который обычно ассоциируется с большими распределенными системами, может быть сейчас не в вашем поле зрения. В конце концов, это сопряжено со значительными накладными расходами».
Несмотря на все это, он видит ценность в его принятии с самого начала. «Когда вы запускаете что-то новое, вы, как правило, сосредоточены на том, чтобы двигаться быстро и быстро итерировать, основываясь на ранней обратной связи. Масштабирование — это на потом. K8S — это инструмент, который, на мой взгляд, позволяет вам сделать именно это, потому что он может ускорить цикл сборки/тестирования/развертывания, позволяет легко развертывать и инструментировать различные экземпляры вашего приложения, например. для сплит-тестирования, клиентских демонстраций и т. д.».
Если вам посчастливилось найти продукт, подходящий рынку, и начать наблюдать рост потребительского спроса, Kubernetes окажется ценным и в этой области. «Проблемы масштабирования — отказоустойчивость, балансировка нагрузки, формирование трафика — уже решены, — говорит Хорстманн. «Вы никогда не достигнете момента, когда вас переполнит успех; вы подготовили свое приложение к будущему без особых дополнительных усилий».
Этот комментарий с форума HashiCorp хорошо резюмирует преимущества: «Кластер Kubernetes — хороший пример абстракции над вычислительными ресурсами: существует множество его размещенных и самоуправляемых реализаций на разных платформах, каждая из которых предлагает общий API и общий набор возможностей».
Мост между публичным и частным облаком
В отчете Bessemer упоминается еще одна новая технологическая тенденция, которая сочетает более широкое внедрение облачных технологий с локальными данными. «Появляющиеся платформы промежуточного программного обеспечения упрощают применение возможностей облака к данным, где бы они ни находились. Это проявилось в таких отраслях, как финансовые услуги, где волна современной финтех-инфраструктуры помогла навести мосты между облачными и устаревшими банковскими системами. Мы видим, что аналогичные мосты строятся в других крупных отраслях, таких как цепочка поставок, логистика и здравоохранение, чтобы использовать возможности облака для этих локальных источников данных».Здесь важно определить, что мы подразумеваем под «промежуточным ПО». Как указывает Red Hat, этот термин восходит к конференции НАТО 1968 года по разработке программного обеспечения, где он относился к коду, который находился между ассемблером/компилятором в нижней части пирамиды и логикой приложения наверху. В мире гибридного облака промежуточное ПО относится к усовершенствованной версии той же идеи. Как объясняет в своем блоге Асанка Абейсингхе, главный технический евангелист WSO2, это может выглядеть как «мегаоблака, которые предоставляют возможности промежуточного программного обеспечения с поддержкой инфраструктуры как услуги (IaaS) через API, которые стали новыми библиотеками DLL. Так, например, очереди сообщений, политики хранения и безопасности открыты для использования разработчиками в приложениях, работающих на IaaS (инфраструктура как услуга)».
Абейсингхе видит, что за пределами крупных провайдеров общедоступных облачных сервисов завоевывают популярность и другие альтернативы. «Kubernetes решает проблему привязки к облаку, привнося открытый стандарт в облачный мир и предоставляя базовые возможности промежуточного программного обеспечения в качестве компонентов. Кроме того, Cloud Native Computing Foundation (CNCF) предлагает богатый набор ПО промежуточного слоя, ориентированного на Kubernetes, и вы можете найти его в технологическом ландшафте CNCF. Однако, если возможностей промежуточного программного обеспечения, предоставляемых Kubernetes и CNCF, недостаточно для разработки вашего приложения, вы можете добавить собственные ресурсы, определив их в определении пользовательского ресурса (CRD), поскольку Kubernetes построен с использованием открытых стандартов».
Абейсингхе считает, что, особенно в организациях с большим количеством устаревшей аппаратной инфраструктуры, существует осознание того, что теперь у них есть много оборудования, которое простаивает. Если вы большой банк, в вашем распоряжении десятки мейнфреймов, использование только пяти процентов из них не имеет особого смысла. «Kubernetes позволяет вам запускать частное облако, которое лучше использует ваше существующее локальное оборудование». Технология разрыва облака позволяет вам переключаться на сторонние ресурсы, когда ваше локальное оборудование работает на пределе возможностей.
Чтобы не остаться в стороне, поставщики общедоступных облачных сервисов теперь предлагают стойки с физическими серверами клиентам, которые выполняют более эффективную работу в локальной среде или должны оставаться внутри компании из соображений безопасности и соответствия требованиям. Компании, которые когда-то помогали компаниям мигрировать с локального оборудования, теперь предлагают серверные стойки как услугу в комплекте с общедоступным облаком, что является моментом полного цикла эволюции вычислений.
Внедрение моделей искусственного интеллекта внутри компании
Одной из областей, где эта тенденция кажется особенно сильной, являются компании, занимающиеся искусственным интеллектом, работающие с большими наборами данных и создающие свои собственные модели. «Большие облачные вычисления на GPU очень дороги, будь то обучение или вывод», — говорит Дилан Фокс, основатель и генеральный директор Assembly AI, стартапа, который предоставляет ИИ как услугу компаниям, которые ищут возможности естественного языка в своей работе. предложения, но не хотят создавать модели или нанимать команду внутри компании.«Большую часть обучения мы проводим в локальных экземплярах. У нас есть пара сотен карт NVIDIA A100, и недавно мы приобрели еще пару сотен для локальных инстансов, используемых для обучения». Крипто-зима стала благословением для этого рынка, поскольку на вторичном рынке появилось избыток графических процессоров, а цены на новое и подержанное оборудование упали.
Как написал Дэвид Линтциум в InfoWorld:
Компании ищут другие, более экономичные варианты, включая поставщиков управляемых услуг и поставщиков услуг совместного размещения (colos) или даже перемещение этих систем в старую серверную комнату дальше по коридору. Эта последняя группа возвращается на «собственные платформы» в основном по двум причинам.
Во-первых, стоимость традиционного вычислительного оборудования и оборудования для хранения данных сильно упала за последние пять лет или около того. Если вы никогда не использовали ничего, кроме облачных систем, позвольте мне объяснить. Раньше мы заходили в комнаты, называемые центрами обработки данных, где могли физически прикасаться к нашему компьютерному оборудованию — оборудованию, которое нам приходилось покупать сразу, прежде чем мы могли его использовать. Я только наполовину шучу.
Когда дело доходит до аренды или покупки, многие обнаруживают, что традиционные подходы, включая бремя обслуживания собственного оборудования и программного обеспечения, на самом деле намного дешевле, чем постоянно растущие счета за облачные вычисления.
Во-вторых, многие испытывают некоторую задержку с облаком. Замедление происходит из-за того, что большинство предприятий используют облачные системы через открытый Интернет, а модель мультиарендности означает, что вы одновременно делите процессоры и системы хранения со многими другими. Периодическая задержка может привести к упущенной выгоде на многие тысячи долларов в год, в зависимости от того, что вы делаете с вашей конкретной облачной системой AI/ML в облаке.
Не только небольшие стартапы в области искусственного интеллекта хотят обрабатывать большие объемы данных с малой задержкой с помощью собственных моделей. Вот поучительная цитата из протокола. «Тенденция on-prem растет среди розничных продавцов крупных коробок и продуктовых магазинов, которым необходимо передавать данные о продуктах, дистрибуции и магазинах в большие модели машинного обучения для прогнозирования запасов, — сказал Виджай Рагхавендра, технический директор SymphonyAI, которая работает с продуктовыми магазинами — цепь Альбертсонов».
Рагхавендра покинул Walmart в 2020 году после семи лет работы в компании на руководящих должностях в области инженерных и торговых технологий. «Это произошло после того, как я работал в Walmart. Когда я был там, они перешли от того, чтобы иметь все локально, ко всему в облаке. И теперь я думаю, что есть больше равновесия, когда они теперь снова инвестируют в свою гибридную инфраструктуру — локальную инфраструктуру в сочетании с облаком», — сказал Рагхавендра протоколу. «Если у вас есть возможность, может иметь смысл создать собственный [совместный центр обработки данных] и запускать эти рабочие нагрузки в своем собственном коло, потому что затраты на его запуск в облаке становятся довольно высокими в определенных масштабах».
У Chick-fil-A был похожий опыт. В блоге, написанном Брайаном Чемберсом, главой компании по корпоративной архитектуре, он отметил: «Исследуя инструменты и компоненты для платформы, мы быстро обнаружили, что существующие предложения ориентированы на развертывание в облаке или центре обработки данных. Компоненты не предназначены для работы в средах с ограниченными ресурсами, без надежного подключения к Интернету или для масштабирования до тысяч активных кластеров Kubernetes. Даже коммерческие инструменты, которые работали в масштабе, не имели моделей лицензирования, которые работали за пределами нескольких сотен кластеров. В результате мы решили создавать и размещать многие компоненты самостоятельно».
Их решение позволило команде DevOps и службе поддержки смарт-устройств развертывать, создавать и обновлять тысячи ресторанов.
Облако с управлением
Общие расходы на облачные вычисления уже огромны, и, по прогнозам, в этом году они вырастут более чем на 20% и составят полтриллиона долларов. Но это будет гораздо более разнообразный и нюансированный период роста. «Облако — это электростанция, которая управляет современными цифровыми организациями, — сказал Сид Наг, вице-президент по исследованиям в Gartner. «ИТ-директора вышли из эпохи иррационального изобилия в приобретении облачных услуг и тщательно подходят к выбору поставщиков общедоступных облачных сервисов для достижения конкретных желаемых результатов в бизнесе и технологиях на пути к цифровой трансформации».После десятилетия или более, потраченного на отказ от серверных стоек, компании обнаруживают, что использование локальной инфраструктуры для определенных видов вычислений может иметь преимущества. Также, возможно, имеет место смена поколений. Инженеры, которые набрались опыта в создании больших общедоступных облаков в крупных технологических компаниях, теперь переходят к созданию стартапов или занимают руководящие должности в небольших компаниях, которые специализируются на подмножестве облачных предложений. То, что старое, снова становится новым, но с огромным разнообразием новых вкусов и комбинаций на выбор.
Похожие публикации
Нет комментариев