Nvidia H100 NVL: dual-GPU accelerator met 188 GB HBM3 voor AI-modellen zoals ChatGPT

Nvidia-ceo Jensen Huang heeft tijdens zijn GTC-keynote de H100 NVL onthuld. Bij deze dual-gpu worden twee bestaande Hopper-acceleratoren aaneen gekoppeld om large language models zoals ChatGPT te versnellen.
Een configuratie met vier H100 NVL’s moet tot tien keer beter presteren in ai-workloads dan een HGX A100-cluster.
In essentie gaat het om cherrypicked GH100-chips, die op een pcie-uitbreidingskaart worden geplaatst en per twee stuks via drie NVLink 4-bridges met elkaar worden verbonden. I…

Deze website gebruikt cookies (en andere technieken) om daarmee informatie over het gebruik van de website te verzamelen.