Единая локальная зона ценообразования уже действует / Новый регион 3-AZ доступен в Париже

Единая локальная зона ценообразования уже действует / Новый регион 3-AZ доступен в Париже Мы рады сообщить вам о двух ключевых разработках в нашей инфраструктуре публичного облака, призванных удовлетворить ваши растущие требования к масштабируемости, устойчивости и географической близости. Эти обновления предназначены для поддержки критически важных рабочих нагрузок, обеспечивая большую гибкость и непрерывность бизнеса. Если вы рассматриваете возможность расширения своих развертываний или повышения надежности своих архитектур, наши команды готовы оказать вам поддержку. 1. Единое ценообразование во всех локальных зонах — уже действует Локальные зоны OVHcloud теперь имеют стандартизированную модель ценообразования, соответствующую нашим основным регионам публичного облака. Данная единая ставка применяется к: Вычислительные экземпляры (B3)Объектное хранилище (S3) и блочное хранилищеРезервное копирование услуг Это изменение направлено на: Упростить расширение нескольких зон, что теперь является стратегическим приоритетом для растущих и интернационализирующих клиентов,Повысить предсказуемость затрат с помощью единой ставки,Продвигать наше преимущество по соотношению цены и качества, сохраняя при этом близость и обратимость. Теперь доступно 31 локальная зона: Европа: Амстердам, Бухарест, Копенгаген, Дублин, Хельсинки, Лиссабон, Лондон, Люксембург, Мадрид, Манчестер, Марсель, Милан, Осло, Прага, София, Стокгольм, Цюрих Америка: Атланта, Бостон, Чикаго, Даллас, Денвер, Лос-Анджелес, Майами, Нью-Йорк, Пало-Альто, Солт-Лейк-Сити, Сантьяго, Сиэтл, Сент-Луис Африка: Рабат Локальные зоны размещают ваши рабочие нагрузки ближе к конечным пользователям, используя при этом полную среду OVHcloud Public Cloud. Они особенно подходят для случаев использования, чувствительных к задержкам: динамические веб-сайты, интерфейсы электронной коммерции, платформы реального времени и т.д. Многие секторы уже в значительной степени полагаются на локальные зоны, включая игровую индустрию, веб-агентства, хостинг-провайдеров, поставщиков SaaS (ERP/CRM), потоковые платформы, а также проекты IoT или умных городов. Примечание: локальные зоны доступны только по запросу и не подлежат экономии на тарифных планах для обеспечения максимальной гибкости. Данная модель ценообразования применяется, начиная с потребления в июле. Узнайте больше о локальных зонах 2. Новый регион 3-AZ в Париже для рабочих нагрузок вашего публичного облака Новый регион Public Cloud, состоящий из трех независимых зон физической доступности, расположенный в регионе Иль-де-Франс, теперь доступен. Этот регион 3-AZ дополняет наши регионы 1-AZ для удовлетворения более высоких требований к избыточности и непрерывности бизнеса. Дополнительные запуски 3-AZ запланированы на 2025 и 2026 годы. Он был разработан для удовлетворения самых высоких требований к обеспечению непрерывности бизнеса с помощью: Хранилище Multi-AZ: Объектное хранилище автоматическая репликация данных между зонами — встроенная высокая доступностьБлочное хранилище (классическое): устойчивость к стиранию кодируется по умолчанию, без ручной настройкиСтабильная производительность и предсказуемые цены: выделенные вычисления без дополнительных обязательств, 99,99% SLA для ключевых услуг и отсутствие сборов за трафик между зонами доступности. Доступно сейчас: Вычислительные экземплярыРегиональный балансировщик нагрузкиХранилище блоков и объектов (Multi-AZ)Эти услуги оплачиваются по той же ставке, что и Paris 1-AZ до 31 декабря 2025 года. В настоящее время находится в стадии бета-тестирования: DBaaS и аналитика: PostgreSQL, MongoDB, MySQL (общая доступность запланирована на 28 июля)Managed Kubernetes Premium (доступность для всех запланирована на 15 сентября) Примечание: регион 3-AZ Paris также доступен для серверов Bare Metal Scale и High Grade (за исключением графических процессоров) с поддержкой физического распределения на основе зон и SLA 99,99%. Этот новый регион уже принимается организациями с высокими эксплуатационными требованиями, особенно в области веб-разработки, аналитики и ИИ, профессиональных услуг B2B и решений SaaS по кибербезопасности. Модель 3-AZ позволяет им усилить непрерывность обслуживания, контролируя при этом расходы на инфраструктуру. См. документацию Public Cloud 3-AZ Вы получили это сообщение как активный клиент Public Cloud в соответствии с нашей политикой обновления сервисов. Если у вас возникнут какие-либо вопросы или вам потребуются рекомендации, обращайтесь к своему обычному контактному лицу в OVHcloud. С наилучшими пожеланиями, Команда OVHcloud...

Changelog chat.ovhcloud.com

Changelog chat.ovhcloud.com Changelog chat.ovhcloud.com chat.ovhcloud.com Журнал изменений 18-06-2025 Новые функции Добавлена ​​возможность сохранять подсказкиУлучшения Улучшен мобильный интерфейсИсправления ошибок Журнал изменений 03-06-2025 Новые функции Добавлены общедоступные базы знанийДобавлена ​​история последних 5 разговоров в навигационной панели на рабочем столеНовый, гораздо более релевантный агентДобавлена ​​проверка токенов; недействительные токены больше не принимаютсяИсправления ошибок Исправления ошибок Журнал изменений 21-05-2025 Новые функции Тема (светлый или темный режим) теперь сохраняетсяИсправления ошибок Ошибка, из-за которой поле ввода исчезало на домашней странице при переключении тем или страницЭффект прыжка при отображении ответаПустая строка в конце блока кода...

SpaceWeb запустил сервис объектного хранилища S3

SpaceWeb запустил сервис объектного хранилища S3 Новое облачное решение ориентировано на разработчиков и предназначено для хранения, масштабирования и интеграции файлов в веб- и IT-проекты без использования сторонней инфраструктуры. Хостинг-провайдер SpaceWeb продолжает расширять линейку облачных продуктов, запустив новый сервис объектного хранилища S3. Новое решение будет особенно полезно для веб-студий и стартапов, которым необходимо эффективно управлять данными. Облачное решение S3 обеспечивает высокий уровень защиты данных. В числе ключевых мер — возможность шифрования, гибкие механизмы управления доступом как на уровне бакетов, так и объектов. Инструмент позволяет надежно и безопасно хранить информацию, независимо от объема данных. С объектным хранилищем S3 можно работать напрямую из кода, CMS или через API. Кроме того, S3 удобно использовать для ресурсоемких проектов как комплиментарный облачный сервис к Kubernetes, который мы выпустили ранее рассказал Егор Шилов, руководитель продуктового направления SpaceWeb. В 2024 году SpaceWeb анонсировал запуск собственной облачной платформы с линейкой профессиональных продуктов для веб-мастеров. Ранее в облаке стали доступы такие сервисы, как Kubernetes, DBaaS, облачные бэкапы и балансировщик...

SpaceWeb включил Kubernetes в партнерскую программу для веб-мастеров

SpaceWeb включил Kubernetes в партнерскую программу для веб-мастеров Согласно условиям, партнеры SpaceWeb смогут получить вознаграждение в размере 20% за каждое новое подключение K8s. Хостинг-провайдер SpaceWeb подключил облачный сервис Kubernetes к партнерской программе для веб-мастеров. Партнеры получат 20% вознаграждения за каждого клиента, заказавшего услугу K8s. Партнерская программа SpaceWeb позволяет участникам получать до 48% вознаграждения от стоимости хостинга за каждого привлеченного клиента. А для перечня облачных услуг: Kubernetes, DBaaS, облачные бекапы и балансировщик, — вознаграждение составит 20%. Партнерская программа SpaceWeb продолжает заметно расти и развиваться. Мы стремимся сделать ее еще более выгодной для наших партнеров. Теперь участники могут монетизировать не только услуги хостинга, но и востребованные облачные решения. При этом условия остаются такими же удобными: моментальный вывод средств и возможность заключения партнерства без бумажных носителей рассказал Егор Шилов, руководитель продуктового направления SpaceWeb. Партнерская программа SpaceWeb существует с 2015 года. В 2023 году компания привлекла в программу блогеров, внедрив функцию сплит-вознаграждения, а в 2024 году первой на рынке подключила самозанятых. За последний год число участников программы выросло вдвое...

Публичное облако / ИИ

Публичное облако / ИИ 1) Блокноты ИИ, развертывание ИИ и обучение ИИ — теперь доступны в OVHcloud US Выведите свои проекты ИИ на новый уровень с помощью этих мощных инструментов, которые теперь доступны в нашем регионе США (Восточная часть США) с поддержкой графического процессора L4. 2) Структурированный вывод для LLM Легко форматируйте и структурируйте выводы из ваших больших языковых моделей. Подробнее в нашем блоге: blog.ovhcloud.com/using-function-calling-with-ovhcloud-ai-endpoints/ 3) Вызов функций для LLM — упрощение использования MCP! Эта революционная функция упрощает использование Model Catalog Platform (MCP). Узнайте, как использовать его, в нашей последней записи в блоге: blog.ovhcloud.com/model-context-protocol-mcp-with-ovhcloud-ai-endpoints/ 4) Квантовые эмуляторы — теперь на выделенных ноутбуках! Квантовые эмуляторы теперь доступны на собственных ноутбуках, отдельно от ноутбуков AI. Следите за обновлениями в разработке! Вот что появится в ближайшие дни: Qwen 3 32bMistral Small 3.2Deepseek V3 (уже доступен внутри для руководства по оборудованию через AI)Whisper V3Whisper V3 Turbo Публичное облако / ИИ...

Что такое CDN и как она работает: объяснение на примере доставки котиков

Что такое CDN и как она работает: объяснение на примере доставки котиков habr.com/ru/companies/ruvds/articles/918586/ Что такое CDN, и при чём тут котики Вот тут и вступает в игру CDN — Content Delivery Network. Это распределённая сеть узлов, которые кэшируют статику (а иногда и динамику) и отдают её пользователю с ближайшей точки. Коты, как и типы контента, бывают разные Статические коты — это как спокойные домашние хвостики. Один раз сфотографировали, сохранили в .jpg или .mp4 — и можно раздавать всем желающим. Они не меняются, не требуют внимания, идеально подходят для кэширования. Вы один раз кладёте такого кота в локальный узел CDN — и больше центральный сервер про него не вспоминает. В итоге, хороший CDN — это не просто прокладка между сервером и браузером. Это система, которая умеет работать с разными типами данных и выбирать стратегию доставки под каждого котика. Архитектура CDN: из чего построена кото-империя Origin-сервер — сердце кото-империиPoP — кото-распределителиEdge-серверы — приёмные кото-домаМежузловая логистика: кото-хабы и дедупликацияDNS и маршрутизация: как выбрать ближайшего кота Как долго котик живёт в кэше HTTP/2 и HTTP/3: как котики летают по новым дорогам Безопасность: коты прячутся в TLS...

Обновления

Обновления https://timeweb.cloud Подарить свое сердце? А может, лучше подарить свой сервер? 20 июня 2025 Очень приятная фича, которая даст возможность перенести сервер вместе с бэкапами, IP и сетевыми дисками с одного аккаунта на другой без лишних заморочек. Как перенести сервер: Заходим в Панель управления, выбираем конкретный сервер и нажимаем «Доступ»Кликаем кнопку «Передать»Указываем логин аккаунта, на который переносится сервер, и вводим код подтверждения (он придет на почту)У получателя сервер появится в списке. Его можно принять или вообще отказаться от переносаВажно: Во время передачи облачный сервер будет заблокирован и помечен в панели как ожидающий переноса (но на его работе это не отразится). Легко найти и сложно потерять: сквозной поиск в панели 19 июня 2025 Добавили +1 к полезным фичам Клауда. Теперь в панели можно юзать поисковую строку и быстро переходить к конкретному сервису или документации. Чтобы использовать поиск, зайдите в личный кабинет → введите запрос (например, название сервиса или его IP-адрес) → поиск выдаст единый список с результатами запроса (например, сервисы, характеристики сети и доки). А еще поиск: Гибкий. Можно настроить фильтрацию (поиск только по сервисам или только по документации)Удобный. Найдет по вашему запросу: сервисы и их конфигурации, нужные доки и тд.Управляемый. Можно скроллить табом и юзать фичу в мобильной версии Визуализация инфраструктуры — и сервисы как на ладони 18 июня 2025 Мы уже делали пасхалки для наших пользователей с интригой об этой фиче, но сейчас все серьезно. Теперь ваши сервисы в виде простой и наглядной схемы прямо в панели управления. Предыстория: Идея визуализации томилась в бэклоге несколько лет. Пользователи рисовали схемы в Miro или draw.io, чтобы увидеть, как связаны все их виртуалки, хранилища и базы данных. Мы решили закрыть эту боль и сделать синхронизированную карту всей вашей инфраструктуры. Что умеет визуализация? Показывать все сервисы проекта и основную инфу о нихАвтоматически строить мастер-схему для быстрой навигации, которую можно кастомизировать под себяГруппировать сервисы, добавлять кастомные блоки и комментарии #каквфигмеА еще в ней есть полноэкранный режим, масштабирование и блокировка схемыЧтобы открыть схему, выберите Ваш проект → Схема инфраструктуры. Энджой! Кстати, мы первые из облаков, кто сделал визуализацию всей инфры пользователя, а не только сетевой части. Новые тарифы Kubernetes 11 июня 2025 Апгрейднули тарифы и добавили пояснение к каждому. Давайте знакомиться: Тариф Dev. Подходит для тестирования функционала нашего Managed Kubernetes — 200 ₽/месПример использования: небольшие пет-проектыТариф Base. Для кластеров со средней нагрузкой, где отказоустойчивость не критична — 2000 ₽/месПример использования: корпоративные веб-сервисы или ML inference-сервисыТариф Custom. Для гибкой настройки — от 2520 ₽/месПример использования: highload-платформы и BigData/ML пайплайны Пара слов о тарифе Custom. В нем можно выбрать количество ядер, объем оперативы и диска, а также установку с одной мастер-нодой или с тремя для настройки отказоустойчивости. Подбираем персональную сборку с помощью ИИ 8 июня 2025 Когда заходите на наш сайт, можете увидеть симпатичный розовый шарик, который предлагает помочь в создании готовой инфры. Через него можно ввести запрос и получить от нейронки варианты сборки, которые мы можем предложить для бизнеса и личного пользования (кстати, такая фича есть только у нашего облака) Пример: Подобрать отказоустойчивую облачную инфраструктуру для SaaS-платформы с 50 000 активных пользователей в сутки. ИИ-помощник сразу даст варианты сборки и ее конечную стоимость. Нужен кастом? Тогда можете написать сюда. Лайфхак: Советуем проверить актуальные решения, даже если вы уже юзаете наши сервисы в облаке — вдруг появилось что-то покруче? А у нас тут новости про Kubernetes вообще-то 4 июня 2025 В последнее время мы намного чаще делимся с вами новинками в нашем облаке и очень стараемся, чтобы вы первыми узнавали о крутых фичах. Теперь доступны обновленные версии Kubernetes: v1.30.12+k0s.0 → v1.30.13+k0s.0v1.31.8+k0s.0 → v1.31.9+k0s.0v1.32.4+k0s.0 → v1.32.5+k0s.0И выкатили новую v1.33.1+k0s.0 (кстати, мы первые среди облаков в России, кто начал поддерживать эту версию) Что добавилось в v1.33.1: Улучшилась стабильность кластера, производительность подов и ключевых API KubernetesПовысилась безопасность control plane Оптимизирована работа CoreDNS и kubeletНалажена стабильность при работе с большими CRDНу и самое главное — закрыты актуальные уязвимости, ура! Сводка сетевых новостей 3 июня 2025 Продолжаем делиться этапами развития нашей сетевой инфры. Погнали: +400G к Google. Теперь стыкуемся с улучшенной пропускной способностью и на высоких скоростях.Подрубились к NL-IX — к сети точек обмена трафиком с датацентрами в крупных европейских городах.И еще стыки. Также настроили соединение с Белтелекомом, Яндексом и ОБИТ.Speedtest-сервер в Питере. И, наконец, теперь можно тестировать канал и проверять сеть прямо до Timeweb Cloud.Для этого: заходим на Speedtest → справа от иконки глобуса выбираем Timeweb Cloud → кликаем Go и хвастаемся результатами в комментах. Обновления в Terraform 2 июня 2025 Подготовили для вас кучу апдейтов в Terraform, чтобы вы смогли комфортно юзать его на всех наших сервисах. Рассказываем, где и какие фичи теперь доступны: Kubernetes. Добавили поддержку конфигуратора воркер-нод, тейнтов и лейблов для групп нод, установку аддонов и редактирование манифестов. А также теперь можно передавать идентификатор VPC-сети при создании кластера и фильтровать пресеты по локациям.S3. Добавили поддержку конфигуратора для стандартного и холодного хранилища.Балансировщики. Добавили поддержку плавающих IP-адресов и новые параметры для гибкой настройки: maxconn, connect_timeout, client_timeout, server_timeout, httprequest_timeout. И, конечно, не обошлось без багфиксов и улучшений. Оставим для вас списком: Теперь можно менять логин в twc_database_userПоправили создание сервисов с токеном доп пользователяДобавили обработку ошибок при устаревших типах баз данныхИсправили проблемы с кластерами PostgreSQL и Redisis_autoscaling в Kubernetes больше не обязателенВ документации по базам данных добавили пример привязки к приватной сети...

Цены на дата-центры растут, а ИИ может сдристнуть в Казахстан

Цены на дата-центры растут, а ИИ может сдристнуть в Казахстан Я тут ванговал, что ЦОДы подорожают и будет дефицит стоек. И знаете, ЦОДы подорожали и появился дефицит стоек. Удивительно, но если перестать строить дата-центры, то уже построенных не хватит. Могло показаться, что когда уйдут всякие западные компании, места освободится много. Да, было такое. Места хватило на месяц. Потом из дальних стран начали возвращаться российские компании. Но давайте посмотрим, что происходит прямо сейчас. Первое и самое очевидное — дефицит ЦОДов сохраняется. Цены на услуги выросли. И тут же, как по команде, все кинулись искать ЦОДы в регионах. Самое смешное в этой истории, что главный драйвер роста — ИИ-технологии (если что, по большей части так называют LLM-инференс). Предполагается, что каждому заводу нужно будет рядом по огромному ЦОДу, чтобы смотреть на конвейер или с помощью какой-нибудь китайской нейросетки, или от того же Яндекса, или ещё от кого-то. Я утрирую, но логика роста рынка именно такая. Если ИИ сдристнет в Казахстан (из-за санкций) — эта модель порушится. Но пока возникают невероятно интересные штуки в регионах. Например, это ЦОДы-призраки, которые существуют, там можно арендовать стойку, но у них даже нет сайта. Потому что зачем? Появилась даже профессия ЦОД-скаута. Это почти как риэлтор, только профессия полезная и требующая специальных знаний. Всплыл такой модный тренд — Edge-вычисления, они же — граничные вычисления Это вычисления, максимально близкие к заказчику, к источнику данных. Поначалу это было важно тем, у кого Edge-соединение или спутник, чтобы не гонять трафик через центральный ЦОД, а считать на месте — около завода. Но назвали их так не в честь 2G. Потом оказалось, что это что-то вроде CDN, только вместо C — вычисления. Те же городские серваки с Контр-Страйком — это Edge-вычисления до того, как это стало модным. Но больше всего в перспективе это нужно для всяких AI-моделей, для работы с Big Data (чтобы не гонять то же самое «сырое» видео 4K по магистралям) и там, где важна минимальная задержка. Представьте, что вам нужно обработать гигабайтный снимок МРТ и получить результат немедленно, или данные с производства льются потоком. Вот Edge и решает эту проблему. Это что-то вроде CDN, но если CDN — это про медиа и видео, то Edge — это про серьёзные вычисления. И да, это международный тренд, а не какое-то наше ноу-хау. Конечно, ЦОДы не строят только ради того, чтобы выиграть одну-две миллисекунды, но спрос на региональные ЦОДы для таких вот специализированных задач есть. Для нас это важно. Годами в своей стратегии мы шли по пути максимального покрытия территорий, и сейчас у нас, пожалуй, самая большая сеть ЦОДов для облачных сервисов и виртуалок по России и зарубежью. И это важно, потому что, скажем, если вам нужен быстрый инференс (а европейские площадки для многих российских компаний заблокированы), то приходится искать решения здесь, в России. А чтобы они хорошо работали с зарубежными партнёрами, нужно и связность хорошую иметь, и географически быть не на краю света. Так вот, региональные ЦОДы с их свободными (и более дешёвыми) мощностями — это один из факторов, который может немного охладить перегретый московский рынок. В общем, мы годами шли в региональное покрытие, но не знали точно, зачем. Просто так чувствовали. Теперь начинаем догадываться. Началась стройка новых ЦОДов (на самом деле — нет) Все вокруг кричат, что строят, строят и строят новые ЦОДы. Планы грандиозные: на всех экономических и отраслевых форумах трубят, что в ближайшие три–пять лет введут чуть ли не 30 тысяч новых стоек. Звучит красиво, но в моменте, я думаю, дефицит всё равно сохранится. А вот через пять-шесть лет тренд уже удастся переломить. Но если копнуть чуть глубже, узнав, что же именно они там строят, то найдётся много смешного. Во-первых, некоторые строят документацию. Просто сидят и ждут снижения ставки ЦБ. Когда это произойдёт, можно будет взять кредит на землю и строительство или получить инвестиции. Это главный ограничивающий фактор: пока банк даёт больше по вкладу, чем возможные инвестиции, бизнес стоит. Во-вторых, некоторые строят свои собственные корпоративные ЦОДы. И этот тренд — не только для гигантов. Я знаю примеры, когда даже крупные хостинг-провайдеры строят для себя. Почему? Да потому что это хороший вариант сэкономить! Внезапно оказалось, что аренда в Tier III ЦОДе очень дорогая. А у себя можно построить Tier II, и будет сильно дешевле. Можно даже Tier 1,5 из говна и палок. Если вынуть палки, то будет Tier I, II или Tier I. Зато туда можно поставить сервер. И вообще, многим ли нужен тот хвалёный аптайм, который к тому же сейчас стал понятием растяжимым? Параллельно все сертификаты Tier III, по сути, обесценились. Все кому не лень пишут: «Соответствует Tier III», но это не проверяется, потому что Uptime Institute почему-то оказался не российской компанией. Минцифра сейчас разрабатывает нормы для ЦОДов, как и для хостеров. Минстрой вот тоже вмешался: подгоняют ГОСТы к современным реалиям, чтобы строили хотя бы что-то похожее на ЦОД, а не клали сервера на кирпичах в ангаре. То есть, по сути, все строят серверные, а не классические ЦОДы. Хостеры, особенно не самые крупные, смотрят на это дело и обзаводятся своими серверными, чтобы сэкономить на размещении и сохранить цены для клиентов. А экономить можно только на палках для строительства дата-центра. Айпишники становятся только дороже, реклама — тоже, кадров у нас на рынке снова дефицит. Вот и строят свои мини-ЦОДы. Пусть там не будет супераптайма, зато дешевле. Даже крупные операторы переиспользуют бывшие телефонные станции. Хорошие же здания: стены есть, пол есть, потолок есть — всё в порядке. Какой смысл, условно, платить какому-нибудь IXcellerate три миллиона в месяц, если, скажем, за 50 миллионов можно построить себе ангар, поставить туда сервера, и всё будет нормально работать. Отобьют за три–пять лет и ещё в плюсе останутся. Раньше цены были не такие, разница была не столь ощутима. Мы, кстати, сразу пошли по этому пути вот с этим ЦОДом. Конечно, своя инфраструктура — это куча геморроя, но экономически это целесообразно. Для себя мы решили, что один свой ЦОД — это хорошо, цифры радуют, но уходить на два-три своих — уже нет. Наш любимый искусственный интеллект Сейчас это главный драйвер спроса и одновременно источник рисков. С одной стороны — да: LLM и другие модели дико жрут мощности. Им нужно много железа. В Китае, например, сейчас просто бум строительства ЦОДов под ИИ. Но тут есть пара жирных «но». Во-первых, что если этот ИИ-хайп не оправдается? История помнит несколько «зим ИИ», когда развитие заходило в тупик и все ставки обнулялись. Похожая история была с биоинженерией: ждали клонов уже вчера, а тут — этические соображения и прочее. Сейчас на ИИ возлагают надежды, что он решит чуть ли не все проблемы человечества. А ну как он напугает людей и запустит ракеты по своим? Его же могут просто запретить, и вся активность заморозится. И куда тогда девать все эти построенные под ИИ мощности? Они хлынут на коммерческий рынок, и мы получим уже не дефицит, а избыток. Думаю, через три–шесть лет это будет вполне реально. В смысле вероятность — выше 10 %. Во-вторых, геополитика. Железо для ИИ, особенно топовые чипы от той же Nvidia, — это уже почти оружие. И производители открыто говорят, что будут ограничивать их работу по геопризнаку. Пример с Китаем мы уже видели. И что делать? Возить чемоданами жёсткие диски в Малайзию, там обучать модели, а результаты — обратно чемоданами? Это же цирк! А если и у нас так будет? Инвесторы, хедж-фонды собрали денег, построили ЦОД под ИИ где-нибудь на Байкале, а им и говорят: «Ребят, ваши карты здесь не работают». Остаётся перепрофилироваться под какой-нибудь майнинг или под коммерческие нужды. Вот вам ещё источник потенциального избытка. Не зря же Яндекс уже заявляет, что будет строить дата-центр под ИИ в Казахстане. Значит, понимают риски и готовят пути отхода, если здесь станет туго или будут какие-то промежуточные CDN-подобные решения. Так что ИИ, который сейчас — главный драйвер, может легко стать головной болью. Да и, честно говоря, ожидания от ИИ, мне кажется, завышены. Думаю, что пик популярности пройдёт. Невидимые ЦОДы и проблемы с маркетингом Это чисто российская фишка. Вот мы постоянно занимаемся поиском новых ЦОДов. Оказалось, что многие из них, особенно региональные, просто не умеют продавать свои услуги. У них нет ни сайта, ни соцсетей, ни канала в Телеграме. Ни-че-го! Вы его не найдёте, даже если очень захотите и будете знать название. Пример — Омск. Искали там ЦОД, нашли с помощью оператора связи: приличный, про Tier III не говорил, зато сразу чат, оперативная работа и многолетний положительный опыт сотрудничества с ним оператора. Встали, запустились, опубликовали новость об этом. В комментариях к нашему посту приходит другой ЦОД, о котором мы и не слышали. Его тупо не было в поиске. Оказывается, физически он существует, работает, и сайт у него есть. А те, кто о нём знал, нам его целенаправленно не предлагали: так как у них нет опыта работы с ним, они не стали его рекомендовать. Плюс они знали, что там нет нужного нам оператора. Тут мы не сравниваем площадки, но подчеркиваю, что и сравнить не получилось бы: просто мы сами не смогли его найти. И таких невидимок по стране полно. Они стоят полупустыми, а могли бы закрыть часть спроса. Тут даже профессия такая появляется — дата-центр-брокеры: это люди, которые знают, где и за каким гаражом спрятался приличный ЦОД. Смешно, но это наша реальность. На Западе такого нет: там крупные сети, у всех есть сайты, агрегаторы — всё прозрачно. У нас же этот рынок ещё дикий. Как только эти ЦОДы «оцифруются», начнут делать сайты, пытаться продавать, это тоже поможет сократить дефицит, потому что люди о них узнают и пойдут туда. Прикольный рост SaaS Интересно, что многие говорят про рост облачных технологий — SaaS и PaaS. Но они ведь тоже не в вакууме существуют, а строятся на базе IaaS, то есть на инфраструктуре, на железе в ЦОДах. Так что спрос на базовые мощности со стороны облаков будет стабильным. Смешной пример был с Infobox, которого недавно купил Ростелеком («Солар»). Все думали, что это гигантский провайдер, а оказалось, у них там всего один-два сисадмина и не так чтобы очень много железа. Это просто показатель того, насколько плотными стали вычисления. Если грубо прикинуть, то весь сегодняшний IaaS-рынок в России — это где-то 130 миллиардов рублей, что эквивалентно примерно 10 000 стоек. А планируют построить, напомню, ещё 30 тысяч! Цены на дата-центры растут, а ИИ может сдристнуть в Казахстан Даже если IaaS вырастет в три раза — это будет 12 тысяч. А кто займёт остальные? Думают, что ИИ. Но если вычесть кэптивные ЦОДы, учесть, что ИИ могут «отменить» или он сам сдуется, то картина для строителей новых ЦОДов уже не такая радужная. Общий прогноз Думаю, что в ближайшую пару лет дефицит точно останется, пока все кэптивные ЦОДы не достроятся, пока Edge-вычисления, о которых заговорили-то всего год назад, не наберут оборотов. Потом, через два–пять лет, рынок начнёт потихоньку охлаждаться. А вот в долгосрочной перспективе, лет через пять-шесть, есть очень серьёзный риск, что из-за фактора ИИ мы получим избыток мощностей. Все воспринимают дефицит как немедленное руководство к действию: «Бежим строить ЦОДы!» Но надо же считать. Так что, если кто-то хочет построить ЦОД, то ему надо очень хорошо подумать, зачем он это делает. Если у него свой хостинг, свой бизнес и он платит бешеные деньги коммерческим площадкам, то это одно. А если просто так, на хайпе, то можно и прогореть. ruvds.com/ru-rub...