Компания Samsung представила новый тип серверной памяти SOCAMM2, созданной для центров обработки данных на основе искусственного интеллекта. Модуль использует технологию LPDDR5X и обладает съемной конструкцией, что отличает его от классических решений для серверов. Уже началась поставка первых образцов продукции ключевым заказчикам для тестирования и интеграции.
Основным преимуществом SOCAMM2 разработчик называет существенное снижение энергопотребления на фоне высокой пропускной способности. Согласно заявлению компании, новый модуль демонстрирует более чем двукратное превосходство по пропускной способности в сравнении с традиционными серверными модулями RDIMM. При этом SOCAMM2 потребляет на 55% меньше электроэнергии, что является критически важным параметром для масштабирования ИИ-инфраструктур, где затраты на энергоснабжение и охлаждение составляют значительную часть общих расходов.
Конструкция модуля SOCAMM2 горизонтальная, в отличие от вертикальной компоновки RDIMM. Это изменение улучшает распределение воздушных потоков внутри серверного шасси и позволяет более эффективно размещать радиаторы охлаждения. Модуль совместим с системами как воздушного, так и жидкостного охлаждения. Съемный дизайн решает проблему, характерную для традиционной LPDDR-памяти, которая обычно впаивается на материнскую плату. Теперь системные администраторы могут выполнять апгрейд или замену памяти без необходимости менять всю системную плату, что сокращает время простоя и общую стоимость владения инфраструктурой.
Samsung ведет тесное сотрудничество с компанией NVIDIA для оптимизации SOCAMM2 под ускоренную инфраструктуру последней. Совместная работа инженеров направлена на достижение высокой отзывчивости и эффективности, необходимых для платформ инференса следующего поколения. Параллельно Samsung участвует в работе отраслевых организаций, таких как JEDEC, для стандартизации серверных модулей на базе LPDDR, что должно упростить их интеграцию в различные платформы.
Появление SOCAMM2 отражает общий тренд в индустрии центров обработки данных, где фокус смещается с этапа обучения крупных моделей на этап их непрерывного выполнения (инференса). Для инференса критически важны не только вычислительная мощность, но и низкая латентность доступа к памяти, высокая пропускная способность и энергоэффективность. Эти задачи часто выполняются круглосуточно, что делает показатели энергопотребления ключевыми для экономики проекта.
До сих пор в серверном сегменте доминировала память на базе стандарта DDR, представленная модулями RDIMM и LRDIMM. Они предлагают большой объем, но имеют более высокое энергопотребление и ограничения по пропускной способности на канал. Технология LPDDR, изначально разработанная для мобильных устройств, привносит в дата-центры свои преимущества: низкое напряжение работы, высокую эффективность и плотность размещения. Однако до сих пор ее использование в серверах было ограничено из-за неремонтопригодной пайки на плату.
SOCAMM2 пытается преодолеть этот разрыв, объединяя энергоэффективность LPDDR с модульностью и удобством обслуживания, характерными для классических серверных DIMM. Это позволяет создавать более компактные и плотные серверные решения, которые требуют меньше энергии для охлаждения. В условиях, когда мощности ИИ-кластеров растут экспоненциально, а доступ к электроэнергии и возможности теплоотвода становятся лимитирующими факторами, такие инновации получают высокий приоритет.
Развитие стандартов памяти для ИИ идет по нескольким параллельным путям. Помимо адаптации LPDDR для серверов, существуют такие специализированные решения, как HBM (High Bandwidth Memory), которая предлагает еще более высокую пропускную способность, но при значительно большей стоимости и сложности производства. Технология HBM обычно интегрируется в один корпус с процессором или ускорителем (как в GPU NVIDIA) и не является съемным модулем. SOCAMM2, вероятно, займет нишу между традиционной DDR-памятью и дорогостоящей HBM, предлагая баланс цены, производительности и энергоэффективности для массового развертывания ИИ-сервисов.
Внедрение подобных решений также важно для развития экосистемы «суперчипов», где несколько вычислительных элементов (CPU, GPU, специализированные ускорители) объединяются в единую систему с общей высокоскоростной памятью. Низкое энергопотребление и высокая пропускная способность SOCAMM2 делают его подходящим кандидатом для таких архитектур.
Таким образом, анонс Samsung SOCAMM2 знаменует важный шаг в эволюции инфраструктуры центров обработки данных, адаптируя проверенную мобильную технологию памяти под жесткие требования современных ИИ-нагрузок. Успех этой разработки будет зависеть от скорости принятия нового стандарта индустрией, поддержки со стороны крупных производителей серверного оборудования (таких как Dell, HPE, Supermicro) и готовности конечных заказчиков пересматривать архитектуру своих дата-
