Компания SK hynix, производитель систем хранения данных, приняла участие в ежегодном саммите Open Compute Project, проходившем с 17 по 19 октября в Сан-Хосе (Калифорния). На данном мероприятии SK hynix представила различные полупроводниковые устройства памяти и решения, призванные обеспечить работу перспективных приложений искусственного интеллекта.
Среди представленных продуктов — память с высокой пропускной способностью, технологии Compute Express Link, а также новый дизайн AI in Memory. Также были представлены такие компоненты, как RDIMM и корпоративные SSD-накопители. Посетители увидели демонстрацию памяти HBM3, используемой в процессоре NVIDIA H100 и следующей модели HBM3E. Благодаря низкому энергопотреблению и высоким скоростям эти решения являются экологически чистым выбором, особенно для серверов ИИ, требующих большой мощности.
Были продемонстрированы три ключевых элемента Compute Express Link от SK hynix, в том числе второе поколение их решения для вычислительной памяти. Оно интегрирует вычислительные роли в хранилище CXL с использованием технологии Near Memory Processing, что позволяет минимизировать транспортировку данных между центральным процессором и памятью. При применении в сервисе анализа трафика в реальном времени компании SK Telecom решение продемонстрировало вычислительные возможности, сравнимые с серверным процессором. Кроме того, было отмечено потенциальное увеличение производительности и эффективности обработки.
Кроме того, SK hynix представила решение на основе CXL для объединенной памяти, призванное заметно снизить объем неиспользуемой памяти и сократить время перемещения данных в распределенных средах искусственного интеллекта и обработки больших данных. Демонстрация программного обеспечения MemVerge подчеркнула, как эти решения могут оптимизировать работу распределенных систем искусственного интеллекта и больших данных.